您好,登錄后才能下訂單哦!
今天就跟大家聊聊有關Python系列爬蟲如何進行攜程旅游景點數據爬取與可視化,可能很多人都不太了解,為了讓大家更加了解,小編給大家總結了以下內容,希望大家根據這篇文章可以有所收獲。
前言
今天我們就用爬蟲攜程旅游景點數據爬取與可視化并做簡單的數據可視化分析唄。讓我們愉快地開始吧~
bs4模塊;
jieba模塊;
pyecharts模塊;
wordcloud模塊;
requests模塊;
以及一些Python自帶的模塊。
安裝Python并添加到環境變量,pip安裝需要的相關模塊即可。
首先,我們來明確一下我們想要爬取的數據是哪些,這里為了方便起見,我們只爬取北京市的旅游景點數據,如下圖所示:
即我們需要爬取的數據為北京市所有景點的名稱,位置,評分等數據。明確了我們的爬取目標,就可以開始寫代碼啦~
代碼實現起來其實也很簡單,可以發現景點信息頁的url變化規律如下:
'https://you.ctrip.com/sight/beijing1/s0-p頁碼.html#sightname'
那么我們只需要逐一請求所有相關網頁,并借助bs4解析并提取我們需要的數據即可。同時,為了避免爬蟲被封,我們每請求10次網頁,就更換一個代理,代理來源則是網上爬取的免費代理。
具體而言,代碼實現如下:
'''攜程旅游景點爬蟲'''
代碼運行效果如下:
All done~完整源代碼詳見個人簡介或者私信獲取相關文件。
老規矩,寫完爬蟲可視化一波數據,方便起見,還是用剛剛爬取的北京景點數據吧~
首先,把所有景點的位置信息做成詞云看看?
看看景點的評分分布唄:
再來統計一下景區評級分布唄:
其中,5A級景區有:
故宮
再來看看價格分布唄:
最后看看評論最多的8個景區是啥如何?
看完上述內容,你們對Python系列爬蟲如何進行攜程旅游景點數據爬取與可視化有進一步的了解嗎?如果還想了解更多知識或者相關內容,請關注億速云行業資訊頻道,感謝大家的支持。
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。