中文字幕av专区_日韩电影在线播放_精品国产精品久久一区免费式_av在线免费观看网站

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

怎么用Python爬取天氣并且語言播報

發布時間:2021-10-25 15:32:17 來源:億速云 閱讀:129 作者:iii 欄目:編程語言

這篇文章主要講解了“怎么用Python爬取天氣并且語言播報”,文中的講解內容簡單清晰,易于學習與理解,下面請大家跟著小編的思路慢慢深入,一起來研究和學習“怎么用Python爬取天氣并且語言播報”吧!

一、 預備知識

此案例實現功能:利用網絡爬蟲,爬取某地的天氣,并打印和語音播報 。  要用到requests庫,lxml庫,pyttsx3庫,沒有的,可以先安裝一下,都可以通過pip安裝:

pip install requests pip install lxml pip install pyttsx3

Requests庫是個功能很強大的網絡請求庫,可以實現跟瀏覽器一樣發送各種HTTP請求來獲取網站的數據。

Lxml庫是處理XML和HTML功能最豐富,最易于使用的庫,通常用lxml庫中的etree使HTML轉化為文檔。

Pyttsx3庫是一個很簡單的播放語音的庫,你給它什么,它就讀什么,當然別在意生硬的語氣。 基本用法如下:

import pyttsx3  word = pyttsx3.init()  word.say('你好') # 關鍵一句,沒有這行代碼,不會播放語音 word.runAndWait()

碼字不易廢話兩句:有需要學習資料的或者有技術問題交流可以私信小編發送“01”即可

爬蟲是爬取網頁的相關內容,了解HTML能夠幫助你更好的理解網頁的結構、內容等。  TCP/IP協議,HTTP協議這些知識了解一下就可以,能夠讓你了解在網絡請求和網絡傳輸上的基本原理,這次的小案例用不到。

二、 詳細說一說

2.1. get請求目標網址

我們首先導入requests庫,然后就用它來獲取目標的網頁,我們請求的是天氣網站中的北京天氣。

import requests # 向目標url地址發送請求,返回一個response對象 req = requests.get('https://www.tianqi.com/beijing/') # .text是response對象的網頁html print(req.text)

打印出的結果就是網站上顯示的內容,瀏覽器就是通過這些內容“解析”出來我們看到的結構如下:

怎么用Python爬取天氣并且語言播報

我們請求后的獲得的數據

怎么用Python爬取天氣并且語言播報

注意啦,小伙伴們有很大可能運行之后得不到網頁代碼,而是顯示403,這是什么意思呢?

403錯誤是一種在網站訪問過程中,常見的錯誤提示,表示資源不可用。服務器理解客戶的請求,但拒絕處理它。

我們寫的爬蟲一般會默認告訴服務器,自己發送一個Python爬取請求,而很多的網站都會設置反爬蟲的機制,不允許被爬蟲訪問的。

所以,我們想讓目標服務器響應,那就把我們的爬蟲進行一下偽裝。此小案例就用常用的更改User-Agent字段進行偽裝。

改一下之前的代碼,將爬蟲偽裝成瀏覽器請求,這樣就可以進行正常的訪問了。

import requests  headers = {'content-type':'application/json', 'User-Agent':'Mozilla/5.0 (Xll; Ubuntu; Linux x86_64; rv:22.0) Gecko/20100101 Firefox/22.0'}  # 向目標url地址發送請求,返回一個response對象 req = requests.get('https://www.tianqi.com/beijing/',headers=headers) # .text是response對象的網頁html print(req.text)

User-Agent字段怎么來的呢?我們以Chrome瀏覽器為例子,先隨便打開一個網頁,按鍵盤的F12或在空白處點擊鼠標右鍵選擇“檢查”;然后刷新網頁,點擊“Network”再點擊“Doc”,點擊Headers,在信息欄查看Request  Headers的User-Agent字段,直接復制,咱們就可以用啦。

2.2. lxml.etree登場

我們從網頁請求獲得的數據繁雜,其中只有一部分是我們真正想得到的數據,例如我們從天氣的網站中查看北京的天氣,只有下圖中使我們想要得到的,我們如如何提取呢?這就要用到lxml.etree。

怎么用Python爬取天氣并且語言播報

整個代碼中只有一小部分我們想要的信息,我們發現想要的天氣、溫度啊都在“class='weather_info'”這一層級下,那這就好辦了。我們在請求的代碼的后面加上:

html_obj = etree.HTML(html) html_data = html_obj.xpath("//d1[@class='weather_info']//text()")

我們print(html_data)一下看看提取是不是我們想要的數據。

怎么用Python爬取天氣并且語言播報

發現連網頁中換行符啊什么的也都提取出來了,還有,別忘了,提取出來的是列表哦。我們還要做一下處理。

word = "歡迎使用天氣播報助手"  for data in html_data:     word += data

處理完我們打印一下看看,嗯,我們想要的都有了。不過還多了一個[切換城市],我們精益求精,最后把這個最后再去掉。

怎么用Python爬取天氣并且語言播報

2.3. 把結果說出來

我們想要的數據都在word變量里啦,現在就讓他讀出來,用pyttsx3這個庫,

ptt = pyttsx3.init() ptt.say(word) ptt.runAndWait()

好的,現在都已完成。 我們一步一步都摸索過來,現在整合在一起,最后播放效果還是不錯的,這是一次很美好的爬蟲之旅,期待下次爬取!

感謝各位的閱讀,以上就是“怎么用Python爬取天氣并且語言播報”的內容了,經過本文的學習后,相信大家對怎么用Python爬取天氣并且語言播報這一問題有了更深刻的體會,具體使用情況還需要大家實踐驗證。這里是億速云,小編將為大家推送更多相關知識點的文章,歡迎關注!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

古交市| 和政县| 彭阳县| 宜城市| 远安县| 麦盖提县| 张家川| 四会市| 乌海市| 泾川县| 禹州市| 永清县| 华池县| 昌平区| 荣成市| 汶川县| 满洲里市| 辰溪县| 水城县| 乌鲁木齐县| 石家庄市| 团风县| 乐陵市| 宾阳县| 会同县| 淅川县| 江阴市| 保定市| 饶平县| 中山市| 广西| 新龙县| 安庆市| 宝坻区| 灵川县| 仙居县| 枣强县| 雷州市| 望奎县| 双牌县| 视频|