中文字幕av专区_日韩电影在线播放_精品国产精品久久一区免费式_av在线免费观看网站

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

如何實現Python小爬蟲

發布時間:2020-09-25 09:15:43 來源:億速云 閱讀:160 作者:Leah 欄目:編程語言

本篇文章為大家展示了如何實現Python小爬蟲,內容簡明扼要并且容易理解,絕對能使你眼前一亮,通過這篇文章的詳細介紹希望你能有所收獲。

所謂網絡爬蟲,通俗的講,就是通過向我們需要的URL發出http請求,獲取該URL對應的http報文主體內容,之后提取該報文主體中我們所需要的信息。所以,想要學習python爬蟲,需要具備一些http的基礎知識,熟悉http請求的基本過程。在本文中,首先會簡單的介紹一下http請求的基本流程,之后介紹python的requests庫,requests庫可以方便地幫助我們完成http請求。因為本文介紹的是爬取靜態網頁,所以請求相應的URL之后,我們需要對其中的信息進行提取,這時候就需要BeautifulSoup庫,它可以輕松的找出我們需要的信息,當然,有時候借助正則表達式會更快地幫助我們抽取網頁中我們需要的信息。最后,我們會通過一個例子,對靜態網頁的爬取過程做一個具體的實現。

http基本知識

當我們通過瀏覽器訪問指定的URL時,需要遵守http協議。本節將介紹一些關于http的基礎知識。

http基本流程

我們打開一個網頁的過程,就是一次http請求的過程。這個過程中,我們自己的主機充當著客戶機的作用,而充當客戶端的是瀏覽器。我們輸入的URL對應著網絡中某臺服務器上面的資源,服務器接收到客戶端發出的http請求之后,會給客戶端一個響應,響應的內容就是請求的URL對應的內容,當客戶端接收到服務器的響應時,我們就可以在瀏覽器上看見請求的信息了。這一過程如下圖所示:

如何實現Python小爬蟲

通過requests發起http請求

我們可以通過python的requests模塊很方便的發起http請求。requests模塊是第三方模塊,安裝完成之后直接import就能使用。下面介紹一些簡單的用法

發起請求

import requests
# 請求的首部信息
headers = {
    'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) 
    Chrome/65.0.3325.146 Safari/537.36'
}
# 例子的url
url = 'https://voice.hupu.com/nba' # 虎撲nba新聞
# 利用requests對象的get方法,對指定的url發起請求
# 該方法會返回一個Response對象
res = requests.get(url, headers=headers)
# 通過Response對象的text方法獲取網頁的文本信息
print(res.text)

上面的代碼中,我們向虎撲的服務器發送了一個get請求,獲取虎撲首頁的nba新聞。headers參數指的是http請求的首部信息,我們請求的url對應的資源是虎撲nba新聞的首頁。獲取到對應的網頁資源之后,我們需要對其中的信息進行提取。

通過BeautifulSoup提取網頁信息

BeautifulSoup庫提供了很多解析html的方法,可以幫助我們很方便地提取我們需要的內容。我們這里說的BeautifulSoup指的是bs4。當我們成功抓取網頁之后,就可以通過BeautifulSoup對象對網頁內容進行解析。在BeautifulSoup中,我們最常用的方法就是find()方法和find_all()方法,借助于這兩個方法,可以輕松地獲取到我們需要的標簽或者標簽組。關于其他的方法,可以參考bs4的官方文檔:BeautifulSoup

find()方法和find_all()方法的用法如下

find(name , attrs , recursive , string , **kwargs )
# find_all()方法將返回文檔中符合條件的所有tag,
find_all(name , attrs , recursive , string , **kwargs )
from bs4 import BeautifulSoup
# BeautifulSoup對象接收html文檔字符串
# lxml是html解析器
soup = Beautiful(res.text, 'lxml')
# 下面的方法找出了所有class為hello的span標簽
# 并將所有的結果都放入一個list返回
tags = soup.find_all('span', {'class': 'hello'})

靜態網頁爬蟲實戰

在本節的例子里面,我們將對虎撲nba首頁所有新聞的標題和來源進行爬取。首先我們導入我們所需要的requests和bs4模塊,然后向目標url發出get請求獲取首頁的html文檔。具體如下:

import requests
from bs4 import BeautifulSoup

headers = {
    'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) 
    Chrome/65.0.3325.146 Safari/537.36'
}
url = 'https://voice.hupu.com/nba' # 虎撲nba新聞
res = requests.get(url, headers=headers)

如何實現Python小爬蟲

畫紅線的部分就是我們要爬取的信息,下面通過chrome控制臺對DOM結構進行分析。結果如下圖:

如何實現Python小爬蟲本著從特殊到一般的思路進行搜索,通過一個新聞信息進行分析,找出所有新聞的共性。通過分析發現,我們需要的標題信息是一個a標簽對應的內容,然后我們需要向上進行搜索,可見標題信息的上一級是一個h5標簽,h5標簽的上一級是一個class屬性值為list-hd的div標簽,這個div的上一級是一個li標簽。用通過同樣的思路對來源信息進行分析,我們發現,新聞標題信息和新聞來源信息都在一個li標簽下面,進一步可以發現,其他的新聞信息都在這類li標簽下,這些li標簽都在class屬性值為news-list的div標簽下,而且整片文檔中,class屬性值為news-list的div標簽也只有這一個。

因此,我們可以從這個div入手,找到這個標簽下的每一個li標簽,對每一個li標簽進行遍歷,每一個li標簽下有唯一的h5標簽,該標簽的文本即為我們要找的標題信息;另外,每一個li標簽下也僅僅有一個class屬性值為comeFrom的span標簽,該span標簽下的a標簽對應的文本就是來源信息。分析結束之后,我們就可以通過bs4進行信息提取了。代碼如下:

soup = BeautifulSoup(res.text, 'lxml')

# 找出class屬性值為news-list的div
news_list = soup.find('div', {'class': 'news-list'})
# 找出news_list下的所有li標簽
news = news_list.find_all('li')
news_titles = []
news_source = []

# 遍歷news
for i in news:
    try:
        # 提取新聞標題
        title = i.find('h5').get_text().strip()
        # 提取新聞來源
        source = i.find('span', {'class': 'comeFrom'}).find('a').get_text().strip()
        # 存儲爬取結果
        news_titles.append(title)
        news_source.append(source)
        print('新聞標題:', title)
        print('新聞來源:', source)
        print()
    except AttributeError as e:
        continue

爬取結果如下

如何實現Python小爬蟲

上述內容就是如何實現Python小爬蟲,你們學到知識或技能了嗎?如果還想學到更多技能或者豐富自己的知識儲備,歡迎關注億速云行業資訊頻道。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

西青区| 磐石市| 清河县| 开阳县| 昂仁县| 苍溪县| 菏泽市| 岳西县| 积石山| 启东市| 白沙| 太仓市| 若羌县| 绥阳县| 朝阳市| 乌鲁木齐县| 盐津县| 波密县| 杂多县| 岢岚县| 扎鲁特旗| 酉阳| 扎赉特旗| 呼伦贝尔市| 大姚县| 安岳县| 扎囊县| 元阳县| 绿春县| 青铜峡市| 永靖县| 紫云| 灵山县| 蒙阴县| 广东省| 仪征市| 天气| 常德市| 化德县| 西峡县| 北票市|