中文字幕av专区_日韩电影在线播放_精品国产精品久久一区免费式_av在线免费观看网站

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

python中scrapy重復執行的實現方法

發布時間:2021-05-28 14:24:55 來源:億速云 閱讀:348 作者:小新 欄目:開發技術

這篇文章給大家分享的是有關python中scrapy重復執行的實現方法的內容。小編覺得挺實用的,因此分享給大家做個參考,一起跟隨小編過來看看吧。

Scrapy是一個為了爬取網站數據,提取結構性數據而編寫的應用框架,我們只需要實現少量的代碼,就能夠快速的抓取

Scrapy模塊:

1、scheduler:用來存放url隊列

2、downloader:發送請求

3、spiders:提取數據和url

4、itemPipeline:數據保存

from twisted.internet import reactor, defer
from scrapy.crawler import CrawlerRunner
from scrapy.utils.log import configure_logging
import time
import logging
from scrapy.utils.project import get_project_settings
 
 
#在控制臺打印日志
configure_logging()
#CrawlerRunner獲取settings.py里的設置信息
runner = CrawlerRunner(get_project_settings())
 
@defer.inlineCallbacks
def crawl():
  while True:
    logging.info("new cycle starting")
    yield runner.crawl("xxxxx")
    #1s跑一次
    time.sleep(1)
  reactor.stop()
 
crawl()
reactor.run()

感謝各位的閱讀!關于“python中scrapy重復執行的實現方法”這篇文章就分享到這里了,希望以上內容可以對大家有一定的幫助,讓大家可以學到更多知識,如果覺得文章不錯,可以把它分享出去讓更多的人看到吧!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

洛隆县| 离岛区| 桦甸市| 噶尔县| 秦皇岛市| 环江| 会宁县| 广丰县| 淮阳县| 沂水县| 海城市| 澄迈县| 敦化市| 常熟市| 社旗县| 互助| 江永县| 澎湖县| 苍南县| 武定县| 阜新| 隆化县| 唐海县| 罗山县| 攀枝花市| 买车| 旬阳县| 来凤县| 安福县| 永清县| 云阳县| 永顺县| 南和县| 谷城县| 寻乌县| 永平县| 静安区| 广汉市| 昌平区| 金寨县| 广元市|