中文字幕av专区_日韩电影在线播放_精品国产精品久久一区免费式_av在线免费观看网站

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

如何解決Python常見反爬蟲機制

發布時間:2020-07-20 13:52:59 來源:億速云 閱讀:230 作者:小豬 欄目:開發技術

小編這次要給大家分享的是如何解決Python常見反爬蟲機制,文章內容豐富,感興趣的小伙伴可以來了解一下,希望大家閱讀完這篇文章之后能夠有所收獲。

1、使用代理

適用情況:限制IP地址情況,也可解決由于“頻繁點擊”而需要輸入驗證碼登陸的情況。

這種情況最好的辦法就是維護一個代理IP池,網上有很多免費的代理IP,良莠不齊,可以通過篩選找到能用的。對于“頻繁點擊”的情況,我們還可以通過限制爬蟲訪問網站的頻率來避免被網站禁掉。

proxies = {'http':'http://XX.XX.XX.XX:XXXX'}
Requests:
 import requests
 response = requests.get(url=url, proxies=proxies)
Urllib2:
 import urllib2
 proxy_support = urllib2.ProxyHandler(proxies)
 opener = urllib2.build_opener(proxy_support, urllib2.HTTPHandler)
 urllib2.install_opener(opener) # 安裝opener,此后調用urlopen()時都會使用安裝過的opener對象
 response = urllib2.urlopen(url)

2、時間設置

適用情況:限制頻率情況。

Requests,Urllib2都可以使用time庫的sleep()函數:

import time
time.sleep(1)

3、偽裝成瀏覽器,或者反“反盜鏈”

有些網站會檢查你是不是真的瀏覽器訪問,還是機器自動訪問的。這種情況,加上User-Agent,表明你是瀏覽器訪問即可。有時還

會檢查是否帶Referer信息還會檢查你的Referer是否合法,一般再加上Referer。

headers = {'User-Agent':'XXXXX'} # 偽裝成瀏覽器訪問,適用于拒絕爬蟲的網站
headers = {'Referer':'XXXXX'}
headers = {'User-Agent':'XXXXX', 'Referer':'XXXXX'}
Requests:
 response = requests.get(url=url, headers=headers)
Urllib2:
 import urllib, urllib2  
 req = urllib2.Request(url=url, headers=headers)
 response = urllib2.urlopen(req)

看完這篇關于如何解決Python常見反爬蟲機制的文章,如果覺得文章內容寫得不錯的話,可以把它分享出去給更多人看到。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

瑞安市| 鱼台县| 名山县| 德江县| 桂东县| 绍兴县| 施甸县| 岳西县| 宜宾县| 怀安县| 渑池县| 庄浪县| 阳山县| 中西区| 乐山市| 清镇市| 清水县| 海晏县| 富蕴县| 岑巩县| 临沧市| 宝兴县| 定安县| 安溪县| 乌兰浩特市| 绍兴县| 静宁县| 宁南县| 武平县| 西藏| 新安县| 宣化县| 桐梓县| 隆回县| 宁德市| 华坪县| 武清区| 桃源县| 旺苍县| 宕昌县| 岢岚县|