中文字幕av专区_日韩电影在线播放_精品国产精品久久一区免费式_av在线免费观看网站

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

怎么在python中使用scrapy框架處理多頁數據

發布時間:2021-05-06 17:16:14 來源:億速云 閱讀:192 作者:Leah 欄目:編程語言

怎么在python中使用scrapy框架處理多頁數據?相信很多沒有經驗的人對此束手無策,為此本文總結了問題出現的原因和解決方法,通過這篇文章希望你能解決這個問題。

python的五大特點是什么

python的五大特點:1.簡單易學,開發程序時,專注的是解決問題,而不是搞明白語言本身。2.面向對象,與其他主要的語言如C++和Java相比, Python以一種非常強大又簡單的方式實現面向對象編程。3.可移植性,Python程序無需修改就可以在各種平臺上運行。4.解釋性,Python語言寫的程序不需要編譯成二進制代碼,可以直接從源代碼運行程序。5.開源,Python是 FLOSS(自由/開放源碼軟件)之一。

方法一:將每一頁對應的url存放到爬蟲文件的start_urls

問題:如果頁數較多時,列表就會變得很大。

方法二:使用Request方法手動發起請求(推薦使用)

案例:爬取古詩文網每一頁的古詩的標題

1、爬取所有頁碼數據

import scrapy

class GushiSpider(scrapy.Spider):
    name = 'gushi'
    start_urls = ['https://www.gushiwen.org/']

    pageNum = 2 #pageNum為2,第一頁已經爬取過了 
    url = 'https://www.gushiwen.cn/default_%d.aspx' #每頁的url是類似的
    
    def parse(self, response):
        div_list = response.xpath('//div[@class="sons"]/div[1]/p[1]')
        print(str(len(div_list))+"首古詩")
        for div in div_list:
            title = div.xpath('./a/b/text()').extract()
            print(title)
        print("------------------------")

        # 爬取所有頁碼數據    
        if self.pageNum <= 10: #一共爬取10頁(共10頁)
            self.pageNum += 1
            url = format(self.url % self.pageNum)   # 每一頁的url和pageNum有關

2、使用Request方法向頁面手動發起請求

         # 手動發起請求: scrapy.Request(url,callback,meta)
            ## url是需要發起請求的url,
            ## callback參數的值是回調函數,即發起請求后需要調用哪一個方法
            ## meta參數的值是一個 字典,表示的是向回調函數傳遞什么樣的參數

3、向上面格式化的url發起請求,callback遞歸調用parse()方法,將得到的數據繼續進行解析

 yield scrapy.Request(url=url,callback=self.parse)

看完上述內容,你們掌握怎么在python中使用scrapy框架處理多頁數據的方法了嗎?如果還想學到更多技能或想了解更多相關內容,歡迎關注億速云行業資訊頻道,感謝各位的閱讀!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

溧阳市| 黄陵县| 云阳县| 讷河市| 奉贤区| 大埔县| 秭归县| 濮阳县| 进贤县| 大名县| 平利县| 岳阳县| 青岛市| 乌恰县| 双牌县| 长海县| 蒙自县| 木兰县| 安仁县| 昆明市| 佛教| 卢湾区| 锦屏县| 浦东新区| 湘潭县| 阿克陶县| 宝清县| 奈曼旗| 九台市| 分宜县| 临武县| 建瓯市| 七台河市| 丹阳市| 杭锦旗| 清水河县| 奇台县| 修水县| 崇信县| 莒南县| 乐亭县|