您好,登錄后才能下訂單哦!
這篇文章給大家分享的是有關python怎么重寫start_requests方法的內容。小編覺得挺實用的,因此分享給大家做個參考,一起跟隨小編過來看看吧。
說明
1、在scrapy中,start_url是由start_requests處理的,通過重寫這種方法,start_url可以攜帶請求頭信息。
2、cookie不能放在scrapy中的headers中,在構建請求時有專門的cookies參數。
可以接收字典形式的cookie。可能需要在settings中設置ROBOTS協議和USER_AGENT。
實例
import scrapy class Git1Spider(scrapy.Spider): name = 'git1' allowed_domains = ['github.com'] start_urls = ['https://github.com/GitLqr'] def start_requests(self): """ 重寫start_requests,發送攜帶cookies的Request。 默認start_requests只是普通的get請求,不會攜帶自定義的頭信息 """ url = self.start_urls[0] temp = '_octo=GH1.1.1045146750.1615451260; _device_id=cd8d64981fcb3fd4ba7f587873e97804' # 把cookies字符串轉成字典 cookies = {data.split('=')[0]: data.split('=')[-1] for data in temp.split('; ')} yield scrapy.Request( url=url, callback=self.parse, cookies=cookies ) def parse(self, response): print(response.xpath('/html/head/title/text()').extract_first())
感謝各位的閱讀!關于“python怎么重寫start_requests方法”這篇文章就分享到這里了,希望以上內容可以對大家有一定的幫助,讓大家可以學到更多知識,如果覺得文章不錯,可以把它分享出去讓更多的人看到吧!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。