中文字幕av专区_日韩电影在线播放_精品国产精品久久一区免费式_av在线免费观看网站

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

python爬蟲實例之Duplication Filter怎樣進行篩重

發布時間:2020-11-30 09:41:04 來源:億速云 閱讀:268 作者:小新 欄目:編程語言

這篇文章給大家分享的是有關python爬蟲實例之Duplication Filter怎樣進行篩重的內容。小編覺得挺實用的,因此分享給大家做個參考。一起跟隨小編過來看看吧。

Duplication Filter

Scrapy中用集合實現這個request去重功能,Scrapy中把已經發送的request指紋放入到一個集合中,把下一個request的指紋拿到集合中比對,如果該指紋存在于集合中,說明這個request發送過了,如果沒有則繼續操作。這個核心的判重功能是這樣實現的:

def request_seen(self, request):
        # self.request_figerprints就是一個指紋集合  
        fp = self.request_fingerprint(request)
 
        # 這就是判重的核心操作  
        if fp in self.fingerprints:
            return True
        self.fingerprints.add(fp)
        if self.file:
            self.file.write(fp + os.linesep)

在scrapy-redis中去重是由Duplication Filter組件來實現的,它通過redis的set 不重復的特性,巧妙的實現了Duplication Filter去重。scrapy-redis調度器從引擎接受request,將request的指紋存?redis的set檢查是否重復,并將不重復的request push寫?redis的 request queue。

引擎請求request(Spider發出的)時,調度器從redis的request queue隊列?里根據優先級pop 出?個request 返回給引擎,引擎將此request發給spider處理。

有了Duplication Filter組件,對于爬蟲找回的數據就可以提供有效的爬取意見,也不用擔心爬蟲會因為重復的數據而耽誤獲取的時間和進度了。

感謝各位的閱讀!關于python爬蟲實例之Duplication Filter怎樣進行篩重就分享到這里了,希望以上內容可以對大家有一定的幫助,讓大家可以學到更多知識。如果覺得文章不錯,可以把它分享出去讓更多的人看到吧!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

昆山市| 汾阳市| 邹城市| 大英县| 义马市| 靖江市| 襄樊市| 邮箱| 乌审旗| 南阳市| 苍南县| 舒城县| 蒲江县| 鄂托克旗| 杭锦旗| 炉霍县| 呼伦贝尔市| 赞皇县| 六安市| 临沭县| 临泽县| 三原县| 内江市| 大关县| 竹溪县| 青河县| 策勒县| 江城| 安庆市| 高淳县| 海丰县| 沙田区| 崇信县| 秭归县| 东乡县| 阿尔山市| 天气| 玉门市| 玉环县| 鄂托克旗| 阿合奇县|