中文字幕av专区_日韩电影在线播放_精品国产精品久久一区免费式_av在线免费观看网站

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Python中scrapy下載保存圖片的方法

發布時間:2022-03-29 17:22:35 來源:億速云 閱讀:589 作者:iii 欄目:移動開發

這篇文章主要介紹了Python中scrapy下載保存圖片的方法的相關知識,內容詳細易懂,操作簡單快捷,具有一定借鑒價值,相信大家閱讀完這篇Python中scrapy下載保存圖片的方法文章都會有所收獲,下面我們一起來看看吧。

        在日常爬蟲練習中,我們爬取到的數據需要進行保存操作,在scrapy中我們可以使用ImagesPipeline這個類來進行相關操作,這個類是scrapy已經封裝好的了,我們直接拿來用即可。

     在使用ImagesPipeline下載圖片數據時,我們需要對其中的三個管道類方法進行重寫,其中         ― get_media_request   是對圖片地址發起請求

   ― file path   是返回圖片名稱

   ― item_completed  返回item,將其返回給下一個即將被執行的管道類

        那具體代碼是什么樣的呢,首先我們需要在pipelines.py文件中,導入ImagesPipeline類,然后重寫上述所說的3個方法:

from scrapy.pipelines.images import ImagesPipeline
import  scrapy
import os
 
 
class ImgsPipLine(ImagesPipeline):
    def get_media_requests(self, item, info):
        yield scrapy.Request(url = item["img_src"],meta={"item":item})
 
 
    #返回圖片名稱即可
    def file_path(self, request, response=None, info=None):
        item = request.meta["item"]
        print("########",item)
        filePath = item["img_name"]
        return filePath
 
    def item_completed(self, results, item, info):
        return item

        方法定義好后,我們需要在settings.py配置文件中進行設置,一個是指定圖片保存的位置IMAGES_STORE = "D:ImgPro",然后就是啟用“ImgsPipLine”管道,

ITEM_PIPELINES = {
   "imgPro.pipelines.ImgsPipLine": 300,  #300代表優先級,數字越小優先級越高
}

         設置完成后,我們運行程序后就可以看到“D:ImgPro”下保存成功的圖片。

Python中scrapy下載保存圖片的方法

完整代碼如下:

spider文件代碼:

# -*- coding: utf-8 -*-
import scrapy
from imgPro.items import ImgproItem
 
 
 
class ImgSpider(scrapy.Spider):
    name = "img"
    allowed_domains = ["www.521609.com"]
    start_urls = ["http://www.521609.com/daxuemeinv/"]
 
    def parse(self, response):
        #解析圖片地址和圖片名稱
        li_list = response.xpath("//div[@class="index_img list_center"]/ul/li")
        for li in li_list:
            item = ImgproItem()
            item["img_src"] = "http://www.521609.com/"  + li.xpath("./a[1]/img/@src").extract_first()
            item["img_name"] = li.xpath("./a[1]/img/@alt").extract_first() + ".jpg"
            # print("***********")
            # print(item)
            yield item

items.py文件

import scrapy
 
 
class ImgproItem(scrapy.Item):
    # define the fields for your item here like:
    # name = scrapy.Field()
    img_src = scrapy.Field()
    img_name = scrapy.Field()

pipelines.py文件

from scrapy.pipelines.images import ImagesPipeline
import  scrapy
import os
from  imgPro.settings import IMAGES_STORE as IMGS
 
class ImgsPipLine(ImagesPipeline):
    def get_media_requests(self, item, info):
        yield scrapy.Request(url = item["img_src"],meta={"item":item})
 
 
    #返回圖片名稱即可
    def file_path(self, request, response=None, info=None):
        item = request.meta["item"]
        print("########",item)
        filePath = item["img_name"]
        return filePath
 
    def item_completed(self, results, item, info):
        return item

settings.py文件

import random
BOT_NAME = "imgPro"
 
SPIDER_MODULES = ["imgPro.spiders"]
NEWSPIDER_MODULE = "imgPro.spiders"
 
IMAGES_STORE = "D:ImgPro"   #文件保存路徑
LOG_LEVEL = "WARNING"
ROBOTSTXT_OBEY = False
#設置user-agent
USER_AGENTS_LIST = [
        "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.1 (KHTML, like Gecko) Chrome/22.0.1207.1 Safari/537.1",
        "Mozilla/5.0 (X11; CrOS i686 2268.111.0) AppleWebKit/536.11 (KHTML, like Gecko) Chrome/20.0.1132.57 Safari/536.11",
        "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/536.6 (KHTML, like Gecko) Chrome/20.0.1092.0 Safari/536.6",
        "Mozilla/5.0 (Windows NT 6.2) AppleWebKit/536.6 (KHTML, like Gecko) Chrome/20.0.1090.0 Safari/536.6",
        "Mozilla/5.0 (Windows NT 6.2; WOW64) AppleWebKit/537.1 (KHTML, like Gecko) Chrome/19.77.34.5 Safari/537.1",
        "Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/536.5 (KHTML, like Gecko) Chrome/19.0.1084.9 Safari/536.5",
        "Mozilla/5.0 (Windows NT 6.0) AppleWebKit/536.5 (KHTML, like Gecko) Chrome/19.0.1084.36 Safari/536.5",
        "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1063.0 Safari/536.3",
        "Mozilla/5.0 (Windows NT 5.1) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1063.0 Safari/536.3",
        "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_8_0) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1063.0 Safari/536.3",
        "Mozilla/5.0 (Windows NT 6.2) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1062.0 Safari/536.3",
        "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1062.0 Safari/536.3",
        "Mozilla/5.0 (Windows NT 6.2) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1061.1 Safari/536.3",
        "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1061.1 Safari/536.3",
        "Mozilla/5.0 (Windows NT 6.1) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1061.1 Safari/536.3",
        "Mozilla/5.0 (Windows NT 6.2) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1061.0 Safari/536.3",
        "Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/535.24 (KHTML, like Gecko) Chrome/19.0.1055.1 Safari/535.24",
        "Mozilla/5.0 (Windows NT 6.2; WOW64) AppleWebKit/535.24 (KHTML, like Gecko) Chrome/19.0.1055.1 Safari/535.24"
    ]
USER_AGENT = random.choice(USER_AGENTS_LIST)
DEFAULT_REQUEST_HEADERS = {
    "Accept": "text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8",
    "Accept-Language": "en",
   # "User-Agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.36",
    "User-Agent":USER_AGENT
}
 
#啟動pipeline管道
ITEM_PIPELINES = {
   "imgPro.pipelines.ImgsPipLine": 300,
}

關于“Python中scrapy下載保存圖片的方法”這篇文章的內容就介紹到這里,感謝各位的閱讀!相信大家對“Python中scrapy下載保存圖片的方法”知識都有一定的了解,大家如果還想學習更多知識,歡迎關注億速云行業資訊頻道。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

东乡县| 沂源县| 沿河| 北宁市| 余姚市| 青阳县| 曲沃县| 桃园县| 确山县| 石楼县| 许昌市| 墨竹工卡县| 格尔木市| 大英县| 广河县| 谷城县| 沧州市| 新宁县| 平顶山市| 荔浦县| 荔波县| 会宁县| 宁津县| 云霄县| 邹平县| 孝义市| 秦皇岛市| 前郭尔| 合阳县| 金坛市| 泰州市| 屯留县| 罗定市| 五莲县| 五家渠市| 彭阳县| 罗田县| 广西| 邹平县| 涿鹿县| 垦利县|