中文字幕av专区_日韩电影在线播放_精品国产精品久久一区免费式_av在线免费观看网站

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Python如何后實現多線程爬表情包

發布時間:2021-11-25 20:50:51 來源:億速云 閱讀:110 作者:柒染 欄目:開發技術

本篇文章給大家分享的是有關Python然后實現多線程爬表情包,小編覺得挺實用的,因此分享給大家學習,希望大家閱讀完這篇文章后可以有所收獲,話不多說,跟著小編一起來看看吧。

    課程亮點

    系統分析目標網頁

    html標簽數據解析方法

    海量圖片數據一鍵保存

    環境介紹

    python 3.8

    pycharm

    模塊使用

    requests >>> pip install requests

    parsel >>> pip install parsel

    time 時間模塊 記錄運行時間

    流程

    一. 分析我們想要的數據內容 是可以從哪里獲取

    表情包 >>> 圖片url地址 以及 圖片名字

    對于開發者工具的使用 >>>

    二. 代碼實現步驟

    1.發送請求

    確定一下發送請求 url地址

    請求方式是什么 get請求方式 post請求方式

    請求頭參數 : 防盜鏈 cookie …

    2.獲取數據

    獲取服務器返回的數據內容

    response.text 獲取文本數據

    response.json() 獲取json字典數據

    response.content 獲取二進制數據 保存圖片/音頻/視頻/特定格式文件內容 都是獲取二進制數據內容

    3.解析數據

    提取我們想要的數據內容

    I. 可以直接解析處理

    II. json字典數據 鍵值對取值

    III. re正則表達式

    IV. css選擇器

    V. xpath

    4.保存數據

    文本

    csv

    數據庫

    本地文件夾

    導入模塊

    import requests  # 數據請求模塊 第三方模塊 pip install requests
    import parsel  # 數據解析模塊 第三方模塊 pip install parsel
    import re  # 正則表達式模塊
    import time  # 時間模塊
    import concurrent.futures

    單線程爬取10頁數據

    1. 發送請求

    start_time = time.time()
    
    for page in range(1, 11):
        url = f'https://fabiaoqing.com/biaoqing/lists/page/{page}html'
         headers = {
             'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/95.0.4638.54 Safari/537.36'
         }
         response = requests.get(url=url, headers=headers)
         # <Response [200]> response 對象 200狀態碼 表示請求成功

    2. 獲取數據, 獲取文本數據 / 網頁源代碼

    # 在開發者工具上面 元素面板 看到有相應標簽數據, 但是我發送請求之后 沒有這樣的數據返回
    # 我們要提取數據, 要根據服務器返回數據內容
    # xpath 解析方法 parsel 解析模塊  parsel這個模塊里面就可以調用xpath解析方法
    # print(response.text)

    3. 解析數據

    # 解析速度 bs4 解析速度會慢一些 如果你想要對于字符串數據內容 直接取值 只能正則表達式
         selector = parsel.Selector(response.text) # 把獲取下來html字符串數據內容 轉成 selector 對象
         title_list = selector.css('.ui.image.lazy::attr(title)').getall()
         img_list = selector.css('.ui.image.lazy::attr(data-original)').getall()
    # 把獲取下來的這兩個列表 提取里面元素 一一提取出來
    # 提取列表元素 for循環 遍歷
         for title, img_url in zip(title_list, img_list):

    4. 保存數據

    # split() 字符串分割的方法 根據列表索引位置取值
    # img_name_1 = img_url[-3:] # 通過字符串數據 進行切片
    # 從左往右 索引位置 是從 0 開始 從右往左 是 -1開始
             # print(title, img_url)
             title = re.sub(r'[\/:*?"<>|\n]', '_', title)
             # 名字太長 報錯
             img_name = img_url.split('.')[-1]   # 通過split() 字符串分割的方法 根據列表索引位置取值
             img_content = requests.get(url=img_url).content # 獲取圖片的二進制數據內容
             with open('img\\' + title + '.' + img_name, mode='wb') as f:
                 f.write(img_content)
             print(title)

    多線程爬取10頁數據

    def get_response(html_url):
        """發送請求"""
        headers = {
            'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/95.0.4638.54 Safari/537.36'
        }
        response = requests.get(url=html_url, headers=headers)
        return response
    def get_img_info(html_url):
        """獲取圖片url地址 以及 圖片名字"""
        response = get_response(html_url)
        selector = parsel.Selector(response.text)  # 把獲取下來html字符串數據內容 轉成 selector 對象
        title_list = selector.css('.ui.image.lazy::attr(title)').getall()
        img_list = selector.css('.ui.image.lazy::attr(data-original)').getall()
        zip_data = zip(title_list, img_list)
        return zip_data
    def save(title, img_url):
        """保存數據"""
        title = re.sub(r'[\/:*?"<>|\n]', '_', title)
        # 名字太長 報錯
        img_name = img_url.split('.')[-1]  # 通過split() 字符串分割的方法 根據列表索引位置取值
        img_content = requests.get(url=img_url).content  # 獲取圖片的二進制數據內容
        with open('img\\' + title + '.' + img_name, mode='wb') as f:
            f.write(img_content)
        print(title)

    多進程爬取10頁數據

    def main(html_url):
        zip_data = get_img_info(html_url)
        for title, img_url in zip_data:
            save(title, img_url)
    if __name__ == '__main__':
        start_time = time.time()
        exe = concurrent.futures.ThreadPoolExecutor(max_workers=10)
        for page in range(1, 11):
            # 1. 發送請求
            url = f'https://fabiaoqing.com/biaoqing/lists/page/{page}html'
            exe.submit(main, url)
        exe.shutdown()
        end_time = time.time()
        use_time = int(end_time - start_time)
        print('程序耗時: ', use_time)

    以上就是Python然后實現多線程爬表情包,小編相信有部分知識點可能是我們日常工作會見到或用到的。希望你能通過這篇文章學到更多知識。更多詳情敬請關注億速云行業資訊頻道。

    向AI問一下細節

    免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

    AI

    堆龙德庆县| 都江堰市| 永昌县| 宁晋县| 沁源县| 清涧县| 财经| 靖远县| 平凉市| 平果县| 鄯善县| 正蓝旗| 怀远县| 陇南市| 江山市| 秦安县| 张家港市| 色达县| 遂溪县| 高阳县| 华宁县| 和政县| 吉木乃县| 西贡区| 札达县| 南宁市| 黑龙江省| 正镶白旗| 荔波县| 琼海市| 达拉特旗| 泗水县| 柏乡县| 莱芜市| 青铜峡市| 盐边县| 澳门| 安宁市| 宝清县| 荥经县| 深水埗区|