中文字幕av专区_日韩电影在线播放_精品国产精品久久一区免费式_av在线免费观看网站

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Python爬蟲新手教程: 知乎文章圖片爬取器

發布時間:2020-10-18 10:21:48 來源:網絡 閱讀:263 作者:學Python派森 欄目:編程語言

1. 知乎文章圖片爬取器之二博客背景

昨天寫了知乎文章圖片爬取器的一部分代碼,針對知乎問題的答案json進行了數據抓取,博客中出現了部分寫死的內容,今天把那部分信息調整完畢,并且將圖片下載完善到代碼中去。

首先,需要獲取任意知乎的問題,只需要你輸入問題的ID,就可以獲取相關的頁面信息,比如最重要的合計有多少人回答問題。
問題ID為如下標紅數字

編寫代碼,下面的代碼用來檢測用戶輸入的是否是正確的ID,并且通過拼接URL去獲取該問題下面合計有多少答案。

import requests
import re
import pymongo
import time
DATABASE_IP = '127.0.0.1'
DATABASE_PORT = 27017
DATABASE_NAME = 'sun'
client = pymongo.MongoClient(DATABASE_IP,DATABASE_PORT)
db = client.sun
db.authenticate("dba", "dba")
collection = db.zhihuone  # 準備插入數據

BASE_URL = "https://www.zhihu.com/question/{}"
def get_totle_answers(article_id):
    headers = {
        "user-agent": "需要自己補全 Mozilla/5.0 (Windows NT 10.0; WOW64)"
    }

    with requests.Session() as s:
        with s.get(BASE_URL.format(article_id),headers=headers,timeout=3) as rep:
            html = rep.text
            pattern =re.compile( '<meta itemProp="answerCount" content="(\d*?)"/>')
            s = pattern.search(html)
            print("查找到{}條數據".format(s.groups()[0]))
            return s.groups()[0]

if __name__ == '__main__':

    # 用死循環判斷用戶輸入的是否是數字
    article_id = ""
    while not article_id.isdigit():
        article_id = input("請輸入文章ID:")

    totle = get_totle_answers(article_id)
    if int(totle)>0:
        zhi = ZhihuOne(article_id,totle)
        zhi.run()
    else:
        print("沒有任何數據!")

完善圖片下載部分,圖片下載地址在查閱過程中發現,存在json字段的content中,我們采用簡單的正則表達式將他匹配出來。細節如下圖展示

Python爬蟲新手教程: 知乎文章圖片爬取器

編寫代碼吧,下面的代碼注釋請仔細閱讀,中間有一個小BUG,需要手動把pic3修改為pic2這個地方目前原因不明確,可能是我本地網絡的原因,還有請在項目根目錄先創建一個imgs的文件夾,用來存儲圖片

    def download_img(self,data):
        ## 下載圖片
        for item in data["data"]:
            content = item["content"]
            pattern = re.compile('<noscript>(.*?)</noscript>')
            imgs = pattern.findall(content)
            if len(imgs) > 0:
                for img in imgs:
                    match = re.search('<img src="(.*?)"', img)
                    download = match.groups()[0]
                    download = download.replace("pic3", "pic2")  # 小BUG,pic3的下載不到

                    print("正在下載{}".format(download), end="")
                    try:
                        with requests.Session() as s:
                            with s.get(download) as img_down:
                                # 獲取文件名稱
                                file = download[download.rindex("/") + 1:]

                                content = img_down.content
                                with open("imgs/{}".format(file), "wb+") as f:  # 這個地方進行了硬編碼
                                    f.write(content)

                                print("圖片下載完成", end="\n")

                    except Exception as e:
                        print(e.args)

            else:
                pass

運行結果為

Python爬蟲新手教程: 知乎文章圖片爬取器

然后在玩知乎的過程中,發現了好多好問題

Python爬蟲新手教程: 知乎文章圖片爬取器

Python爬蟲新手教程: 知乎文章圖片爬取器

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

莱州市| 洛宁县| 铜梁县| 新疆| 凭祥市| 伊吾县| 额尔古纳市| 津市市| 双峰县| 清流县| 余姚市| 石景山区| 绥德县| 兴安县| 奉新县| 顺平县| 沙湾县| 广东省| 桐庐县| 城步| 大竹县| 永嘉县| 周至县| 五原县| 荥阳市| 克拉玛依市| 新丰县| 延津县| 柳江县| 德格县| 淳化县| 新邵县| 江门市| 焦作市| 建湖县| 祁门县| 锡林浩特市| 昌黎县| 黄陵县| 黔江区| 连江县|