中文字幕av专区_日韩电影在线播放_精品国产精品久久一区免费式_av在线免费观看网站

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

突破反爬蟲策略

發布時間:2020-08-13 21:40:28 來源:ITPUB博客 閱讀:284 作者:Winter 欄目:編程語言

1.什么是爬蟲和反爬蟲

  • 爬蟲 是使用任何技術手段批量獲取網站信息的一種方式, 反爬蟲 是使用任何技術手段阻止別人批量獲取自己網站信息的一種方式;

2.User-Agent介紹

  • User Agent 中文名為用戶代理,是Http協議中的一部分,屬于頭域的組成部分,User Agent也簡稱 UA 。它是一個特殊字符串頭,是一種向訪問網站提供你所使用的瀏覽器類型及版本、操作系統及版本、瀏覽器內核、等信息的標識;

  • User-Agent headers 中的一個屬性,表示當前訪問服務器的身份信息,如果同一個身份過于頻繁的訪問服務器會被識別為機器身份,遭到反爬的打擊,所以需要頻繁的更改User-Agent信息;

  • User-Agent字段解析:瀏覽器標識 (操作系統標識; 加密等級標識; 瀏覽器語言) 渲染引擎標識 版本信息;

3.使用不同的User-Agent來規避反爬策略

  • 想要隨機更改User-Agent,首先我們可以在蜘蛛文件的Spider類中添加一個header請求頭,很多網站只需要userAgent信息就可以通過,但是有的網站還需要驗證一些其他的信息,所以我們可以在請求頭中添加一些需要用到的字段,比如:

  • Accept :客戶端支持的數據類型,用逗號隔開,是有順序的,分號前面是主類型,分號后是子類型;

  • Accept-Encoding :指定瀏覽器可以支持的web服務器返回內容壓縮編碼類型;

  • Accept-Language :瀏覽器可接受的自然語言的類型;

  • Connection :設置HTTP連接的持久化,通常都是Keep-Alive;

  • host :服務器的域名或IP地址,如果不是通用端口,還包含該端口號;

  • Referer :指當前請求的URL是在什么地址引用的;


headers = {
        'Accept':'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8',
        'Accept-Encoding':  'gzip, deflate',
        'Accept-Language': 'zh-CN,zh;q=0.9',
        'Connection':  'keep-alive',
        'host': 'dribbble.com/stories',
        'Referer': 'https://dribbble.com/',
    }

  • 添加完請求頭需要的字段,我們可以在settings.py 文件中手動創建一個User-Agent列表

user_agent_list = [
    "Opera/9.80 (X11; Linux i686; Ubuntu/14.10) Presto/2.12.388 Version/12.16",
    "Opera/9.80 (Windows NT 6.0) Presto/2.12.388 Version/12.14",
    "Mozilla/5.0 (Windows NT 6.0; rv:2.0) Gecko/20100101 Firefox/4.0 Opera 12.14",
    "Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.0) Opera 12.14",
    "Opera/12.80 (Windows NT 5.1; U; en) Presto/2.10.289 Version/12.02",
    "Opera/9.80 (Windows NT 6.1; U; es-ES) Presto/2.9.181 Version/12.00",
    "Opera/9.80 (Windows NT 5.1; U; zh-sg) Presto/2.9.181 Version/12.00",
    "Opera/12.0(Windows NT 5.2;U;en)Presto/22.9.168 Version/12.00",
    "Opera/12.0(Windows NT 5.1;U;en)Presto/22.9.168 Version/12.00",
    "Mozilla/5.0 (Windows NT 5.1) Gecko/20100101 Firefox/14.0 Opera/12.0",
    "Opera/9.80 (Windows NT 6.1; WOW64; U; pt) Presto/2.10.229 Version/11.62",
    "Opera/9.80 (Windows NT 6.0; U; pl) Presto/2.10.229 Version/11.62",
    "Opera/9.80 (Macintosh; Intel Mac OS X 10.6.8; U; fr) Presto/2.9.168 Version/11.52",
    "Opera/9.80 (Macintosh; Intel Mac OS X 10.6.8; U; de) Presto/2.9.168 Version/11.52",
    "Opera/9.80 (Windows NT 5.1; U; en) Presto/2.9.168 Version/11.51",
    "Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; de) Opera 11.51",
    "Opera/9.80 (X11; Linux x86_64; U; fr) Presto/2.9.168 Version/11.50",
    "Opera/9.80 (X11; Linux i686; U; hu) Presto/2.9.168 Version/11.50",
    "Opera/9.80 (X11; Linux i686; U; ru) Presto/2.8.131 Version/11.11",
    "Opera/9.80 (X11; Linux i686; U; es-ES) Presto/2.8.131 Version/11.11",
    "Mozilla/5.0 (Windows NT 5.1; U; en; rv:1.8.1) Gecko/20061208 Firefox/5.0 Opera 11.11",
    "Opera/9.80 (X11; Linux x86_64; U; bg) Presto/2.8.131 Version/11.10",
    "Opera/9.80 (Windows NT 6.0; U; en) Presto/2.8.99 Version/11.10",
    "Opera/9.80 (Windows NT 5.1; U; zh-tw) Presto/2.8.131 Version/11.10",
    "Opera/9.80 (Windows NT 6.1; Opera Tablet/15165; U; en) Presto/2.8.149 Version/11.1",
    "Opera/9.80 (X11; Linux x86_64; U; Ubuntu/10.10 (maverick); pl) Presto/2.7.62 Version/11.01",
]

  • 然后在項目中創建一個utils.py文件,在這個文件中自定義一個隨機函數

import random
def get_randam_int(lst):
    return random.randint(0, len(lst)-1)

  • 最后修改蜘蛛文件中的parse()方法,導入相關模塊,調用自定義的隨機函數生成隨機User-gent添加到headers請求頭中;

    def parse(self, response):
        headers = {
            'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8',
            'Accept-Encoding': 'gzip, deflate',
            'Accept-Language': 'zh-CN,zh;q=0.9',
            'Connection': 'keep-alive',
            'host': 'dribbble.com',
            'Referer': 'https://dribbble.com/',
        }
        random_index = get_randam_int(user_agent_list)
        random_agent = user_agent_list[random_index]
        headers['User-Agent'] = random_agent
        a_nodes = response.css('header div.teaser a')
        for a_node in a_nodes:
            # print(a_node)
            a_url = a_node.css('::attr(href)').extract()[0]
            a_image_url = a_node.css('img::attr(src)').extract()[0]
            yield Request(headers=headers,url=parse.urljoin(response.url, a_url), callback=self.parse_analyse, meta={'a_image_url': a_image_url})

4.也可以在中間件中設置User Agent

突破反爬蟲策略

5.調試工具

  • 打開你需要爬蟲的網頁;

  • 按鍵盤的F12或手動去瀏覽器右上角的“更多工具”選項選擇開發者工具;

  • 按鍵盤的F5刷新網頁;

  • 選擇Network中的Doc;

  • 點擊Headers,就可以在最末尾查看Request Headers的User-Agent字段,也可以復制使用User-Agent字段;

參考: https://www.9xkd.com/user/plan-view.html?id=1782598054

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

施秉县| 偃师市| 常州市| 赣榆县| 阿拉善盟| 读书| 晋江市| 英超| 临海市| 平凉市| 梅河口市| 玉溪市| 长治市| 河池市| 中超| 平泉县| 漳浦县| 毕节市| 乃东县| 阳原县| 尼勒克县| 曲阳县| 甘德县| 万山特区| 天祝| 吉安县| 安平县| 牡丹江市| 嘉义市| 马边| 安阳县| 铜陵市| 五家渠市| 寿光市| 莱西市| 南开区| 麻城市| 青冈县| 什邡市| 元朗区| 灵寿县|