中文字幕av专区_日韩电影在线播放_精品国产精品久久一区免费式_av在线免费观看网站

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

如何使用python爬取當當網所有Python書籍

發布時間:2022-01-13 15:11:24 來源:億速云 閱讀:200 作者:小新 欄目:大數據

小編給大家分享一下如何使用python爬取當當網所有Python書籍,相信大部分人都還不怎么了解,因此分享這篇文章給大家參考一下,希望大家閱讀完這篇文章后大有收獲,下面讓我們一起去了解一下吧!

1 確定爬取目標

任何網站皆可爬取,就看你要不要爬取而已。本次選取的爬取目標是當當網,爬取內容是 以 Python 為關鍵字搜索出來的頁面中所有書籍的信息。具體如下圖所示:

如何使用python爬取當當網所有Python書籍

本次爬取結果有三項:

  • 圖書的封面圖片

  • 圖書的書名

  • 圖書的鏈接頁面
    最后把這三項內容保存到 csv 文件中。

2 爬取過程

總所周知,每個站點的頁面 DOM 樹是不一樣的。所以我們需要先對爬取頁面進行分析,再確定自己要獲取的內容,再定義程序爬取內容的規則。

2.1 確定 URL 地址

我們可以通過利用瀏覽器來確定URL 地址,為 urllib 發起請求提供入口地址。接下來,我們就一步步來確定請求地址。
搜索結果頁面為 1 時,URL 地址如下:

如何使用python爬取當當網所有Python書籍

搜索結果頁面為 3 時,URL 地址如下:

如何使用python爬取當當網所有Python書籍

搜索結果頁面為 21 時,即最后一頁,URL 地址如下:

如何使用python爬取當當網所有Python書籍

從上面的圖片中,我們發現 URL 地址的差異就在于 page_index 的值,所以 URL 地址最終為 http://search.dangdang.com/?key=python&act=input&show=big&page_index=。而 page_index  的值,我們可以通過循環依次在地址后面添加。因此, urllib 請求代碼可以這樣寫:

如何使用python爬取當當網所有Python書籍

2.2 確定爬取節點

有了 URL 地址,就能使用 urllib 獲取到頁面的 html 內容。到了這步,我們就需要找到爬取的節點的規則,以便于 BeautifulSoup 地解析。為了搞定這個問題,就要祭出大招 —— Chrome 瀏覽器的開發者功能(按下 F12 鍵就能啟動)。我們按下 F12 鍵盤,依次對每本書進行元素檢查(在頁面使用鼠標右鍵,點擊“檢查”即可),具體結果如下:

如何使用python爬取當當網所有Python書籍

從上圖可以得知解析規則:每本書的節點是一個 a 標簽,a 標簽具有 title,href,子標簽 img 的 src 三個屬性,這三者分別對應書名、書的鏈接頁面、書的封圖。看到這里也需你不會小激動,感嘆這不就是我們要感興趣的內容嗎?得到解析規則,編寫BeautifulSoup 解析代碼就有了思路,具體代碼如下:

如何使用python爬取當當網所有Python書籍運行結果如下:

如何使用python爬取當當網所有Python書籍這證明剛才制定規則是正確爬取我們所需的內容。

2.3 保存爬取信息

我寫爬蟲程序有個習慣,就是每次都會爬取內容持久化到文件中。這樣方便以后查看使用。如果爬取數據量比較大,我們可以用其做數據分析。我這里為了方便,就將數據保存到 csv 文件中。用 Python 將數據寫到文件中,我們經常中文亂碼問題所煩惱。如果單純使用 csv 庫,可能擺脫不了這煩惱。所以我們將 csv 和 codecs 結合一起使用。在寫數據到 csv 文件的時候,我們可以通過指定文件編碼。這樣中文亂碼問題就迎刃而解。具體代碼如下:

如何使用python爬取當當網所有Python書籍

看到這里,你可能會問為什么不把編碼指定為 gb2312 呢,這樣用 ecxel 打開就不會亂碼了?原因是當書名全部為英文單詞時,使用 gb2312 編碼,writer.writerow()會出現編碼錯誤的問題。

如果你要用 excel 打開 PythonBook.csv文件, 你則需多執行下面幾步:

  • 1) 打開 Excel

  • 2) 執行“數據”->“自文本”

  • 3) 選擇 CSV 文件,出現文本導入向導

  • 4) 選擇“分隔符號”,下一步

  • 5) 勾選“逗號”,去掉“ Tab 鍵”,下一步,完成

  • 6)在“導入數據”對話框里,直接點確定

3 爬取結果

最后,我們將上面代碼整合起來即可。這里就不把代碼貼出來了,具體閱讀原文即可查看源代碼。我就把爬取結果截下圖:

如何使用python爬取當當網所有Python書籍以上是“如何使用python爬取當當網所有Python書籍”這篇文章的所有內容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內容對大家有所幫助,如果還想學習更多知識,歡迎關注億速云行業資訊頻道!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

沿河| 文水县| 天全县| 刚察县| 拉孜县| 商丘市| 岫岩| 安福县| 白朗县| 龙里县| 五大连池市| 化州市| 天镇县| 郎溪县| 成都市| 深水埗区| 肥乡县| 普兰店市| 沈丘县| 南充市| 德保县| 萍乡市| 海伦市| 潞城市| 大埔区| 米林县| 罗田县| 嘉祥县| 青阳县| 谢通门县| 东明县| 晋江市| 武安市| 郴州市| 新沂市| 杭锦旗| 丹棱县| 东丰县| 稻城县| 温宿县| 商河县|