您好,登錄后才能下訂單哦!
這篇“Python爬蟲怎么實現搭建代理ip池”文章的知識點大部分人都不太理解,所以小編給大家總結了以下內容,內容詳細,步驟清晰,具有一定的借鑒價值,希望大家閱讀完這篇文章能有所收獲,下面我們一起來看看這篇“Python爬蟲怎么實現搭建代理ip池”文章吧。
在發送請求的時候,通常都會做一個簡單的反爬。這時可以用fake_useragent模塊來設置一個請求頭,用來進行偽裝成瀏覽器,下面兩種方法都可以。
from fake_useragent import UserAgent headers = { # 'User-Agent': UserAgent().random #常見瀏覽器的請求頭偽裝(如:火狐,谷歌) 'User-Agent': UserAgent().Chrome #谷歌瀏覽器 }
response = requests.get(url='http://www.ip3366.net/free/', headers=request_header()) # text = response.text.encode('ISO-8859-1') # print(text.decode('gbk'))
我們只需要解析出ip、port即可。
使用xpath解析(個人很喜歡用)(當然還有很多的解析方法,如:正則,css選擇器,BeautifulSoup等等)。
#使用xpath解析,提取出數據ip,端口 html = etree.HTML(response.text) tr_list = html.xpath('/html/body/div[2]/div/div[2]/table/tbody/tr') for td in tr_list: ip_ = td.xpath('./td[1]/text()')[0] #ip port_ = td.xpath('./td[2]/text()')[0] #端口 proxy = ip_ + ':' + port_ #115.218.5.5:9000
#構建代理ip proxy = ip + ':' + port proxies = { "http": "http://" + proxy, "https": "http://" + proxy, # "http": proxy, # "https": proxy, } try: response = requests.get(url='https://www.baidu.com/',headers=request_header(),proxies=proxies,timeout=1) #設置timeout,使響應等待1s response.close() if response.status_code == 200: print(proxy, '\033[31m可用\033[0m') else: print(proxy, '不可用') except: print(proxy,'請求異常')
import requests #導入模塊 from lxml import etree from fake_useragent import UserAgent #簡單的反爬,設置一個請求頭來偽裝成瀏覽器 def request_header(): headers = { # 'User-Agent': UserAgent().random #常見瀏覽器的請求頭偽裝(如:火狐,谷歌) 'User-Agent': UserAgent().Chrome #谷歌瀏覽器 } return headers ''' 創建兩個列表用來存放代理ip ''' all_ip_list = [] #用于存放從網站上抓取到的ip usable_ip_list = [] #用于存放通過檢測ip后是否可以使用 #發送請求,獲得響應 def send_request(): #爬取7頁,可自行修改 for i in range(1,8): print(f'正在抓取第{i}頁……') response = requests.get(url=f'http://www.ip3366.net/free/?page={i}', headers=request_header()) text = response.text.encode('ISO-8859-1') # print(text.decode('gbk')) #使用xpath解析,提取出數據ip,端口 html = etree.HTML(text) tr_list = html.xpath('/html/body/div[2]/div/div[2]/table/tbody/tr') for td in tr_list: ip_ = td.xpath('./td[1]/text()')[0] #ip port_ = td.xpath('./td[2]/text()')[0] #端口 proxy = ip_ + ':' + port_ #115.218.5.5:9000 all_ip_list.append(proxy) test_ip(proxy) #開始檢測獲取到的ip是否可以使用 print('抓取完成!') print(f'抓取到的ip個數為:{len(all_ip_list)}') print(f'可以使用的ip個數為:{len(usable_ip_list)}') print('分別有:\n', usable_ip_list) #檢測ip是否可以使用 def test_ip(proxy): #構建代理ip proxies = { "http": "http://" + proxy, "https": "http://" + proxy, # "http": proxy, # "https": proxy, } try: response = requests.get(url='https://www.baidu.com/',headers=request_header(),proxies=proxies,timeout=1) #設置timeout,使響應等待1s response.close() if response.status_code == 200: usable_ip_list.append(proxy) print(proxy, '\033[31m可用\033[0m') else: print(proxy, '不可用') except: print(proxy,'請求異常') if __name__ == '__main__': send_request()
以上就是關于“Python爬蟲怎么實現搭建代理ip池”這篇文章的內容,相信大家都有了一定的了解,希望小編分享的內容對大家有幫助,若想了解更多相關的知識內容,請關注億速云行業資訊頻道。
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。