中文字幕av专区_日韩电影在线播放_精品国产精品久久一区免费式_av在线免费观看网站

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

解決Python網頁爬蟲之中文亂碼問題

發布時間:2020-09-02 05:18:20 來源:腳本之家 閱讀:306 作者:ToringZZZ 欄目:開發技術

Python是個好工具,但是也有其固有的一些缺點。最近在學習網頁爬蟲時就遇到了這樣一種問題,中文網站爬取下來的內容往往中文顯示亂碼。看過我之前博客的同學可能知道,之前爬取的一個學校網頁就出現了這個問題,但是當時并沒有解決,這著實成了我一個心病。這不,剛剛一解決就將這個方法公布與眾,大家一同分享。

首先,我說一下Python中文亂碼的原因,Python中文亂碼是由于Python在解析網頁時默認用Unicode去解析,而大多數網站是utf-8格式的,并且解析出來之后,python竟然再以Unicode字符格式輸出,會與系統編碼格式不同,導致中文輸出亂碼,知道原因后我們就好解決了。下面上代碼,實驗對象仍是被人上了無數遍的百度主頁~

# -*- coding: utf-8 -*-

import urllib2
import re
import requests
import sys

import urllib
#設置編碼
reload(sys)
sys.setdefaultencoding('utf-8')
#獲得系統編碼格式
type = sys.getfilesystemencoding()
r = urllib.urlopen("http://www.baidu.com")
#將網頁以utf-8格式解析然后轉換為系統默認格式
a = r.read().decode('utf-8').encode(type)
print a

最后輸出效果,中文完美輸出

解決Python網頁爬蟲之中文亂碼問題

以上這篇解決Python網頁爬蟲之中文亂碼問題就是小編分享給大家的全部內容了,希望能給大家一個參考,也希望大家多多支持億速云。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

莎车县| 万荣县| 塘沽区| 达尔| 怀宁县| 磐安县| 分宜县| 文昌市| 泾川县| 丹寨县| 阿图什市| 寻甸| 内江市| 浪卡子县| 拉孜县| 福贡县| 民县| 宁国市| 张家川| 临邑县| 台东市| 十堰市| 库尔勒市| 莱州市| 乐山市| 综艺| 南昌县| 海丰县| 桐梓县| 尉犁县| 兰州市| 邹城市| 巴楚县| 高要市| 确山县| 大安市| 巢湖市| 麦盖提县| 南木林县| 麟游县| 山阴县|