您好,登錄后才能下訂單哦!
本篇文章給大家分享的是有關Python怎么爬取當當網APP數據,小編覺得挺實用的,因此分享給大家學習,希望大家閱讀完這篇文章后可以有所收獲,話不多說,跟著小編一起來看看吧。
場景:有時候通過傳統的方法去爬一些 Web 網頁或者 APP,受限于對方的反爬方案,很難爬到想要的數據,這個時候可以考慮使用「Appium」結合「mitmproxy」的方式去爬取數據。
其中,Appium 負責驅動 App 端自動化運行,mitmproxy 負責截取請求數據并解析保存到數據庫。
今天的目的是爬取「當當網」的所有數據,并保存到 MongoDB 數據庫當中。
首先,需要在 PC 上安裝好 Charles 和 Appium Desktop,并配置好 mitmproxy 環境。
# 安裝mitmproxy依賴包 pip3 install mitmproxy # 安裝pymongodb pip3 install pymongo
另外,需要準備一臺 Android 手機,另外 PC 端配置好 Android 開發環境。
1. 在配置好手動代理的情況下,打開 Charles 實時捕獲客戶端的發起的網絡請求。
打開當當網搜索商品的頁面,搜索關鍵字「Python」,可以在 Charles 查看到當前請求的 URL 地址包含:「word=Python」
編寫 mitmproxy 的執行腳本文件,重寫 response() 函數,通過對請求的 URL 進行過濾,對有用的數據進行整理并保存到 MongoDB 數據庫當中。
class DangDangMongo(object): """ 初始化MongoDB數據庫 """ def __init__(self): self.client = MongoClient('localhost') self.db = self.client['admin'] self.db.authenticate("root", "xag") self.dangdang_book_collection = self.db['dangdang_book'] def response(flow): # 過濾請求的URL if 'keyword=Python' in request.url: data = json.loads(response.text.encode('utf-8')) # 書籍 products = data.get('products') or None product_datas = [] for product in products: # 書ID product_id = product.get('id') # 書名 product_name = product.get('name') # 書價格 product_price = product.get('price') # 作者 authorname = product.get('authorname') # 出版社 publisher = product.get('publisher') product_datas.append({ 'product_id': product_id, 'product_name': product_name, 'product_price': product_price, 'authorname': authorname, 'publisher': publisher }) DangDangMongo().dangdang_book_collection.insert_many(product_datas) print('成功插入數據成功')
先打開客戶端的手動代理監聽 8080 端口,然后執行「mitmdump」命令,然后滾動商品界面,發現數據到寫入到數據庫中了。
mitmdump -s script_dangdang.py
2. 下面我們要利用 Appium 幫我們實現 自動化。
首先打開 Appium Desktop,并啟動服務。
獲取到包名和初始 Activity 后,就可以利用 WebDriver 去模擬打開當當網 APP。
self.caps = { 'automationName': DRIVER, 'platformName': PLATFORM, 'deviceName': DEVICE_NAME, 'appPackage': APP_PACKAGE, 'appActivity': APP_ACTIVITY, 'platformVersion': ANDROID_VERSION, 'autoGrantPermissions': AUTO_GRANT_PERMISSIONS, 'unicodeKeyboard': True, 'resetKeyboard': True } self.driver = webdriver.Remote(DRIVER_SERVER, self.caps)
接著使用 Android SDK 自帶的工具 uiautomatorviewer 獲取到元素信息,使用 Appium 中的 WebDriver 去操作 UI 元素。
第一次打開應用的時候,可能會出現紅包雨對話框、新人專享紅包對話框、切換城市對話框,這里需要通過元素 ID 獲取到關閉按鈕,執行點擊操作來關閉這些對話框。
這里創建一個 新的線程 來單獨處理這些對話框。
class ExtraJob(threading.Thread): def run(self): while self.__running.isSet(): # 為True時立即返回, 為False時阻塞直到內部的標識位為True后返回 self.__flag.wait() # 1.0 【紅包雨】對話框 red_packet_element = is_element_exist(self.driver, 'com.dangdang.buy2:id/close') if red_packet_element: red_packet_element.click() # 1.1 【新人專享券】對話框 new_welcome_page_sure_element = is_element_exist(self.driver, 'com.dangdang.buy2:id/dialog_cancel_tv') if new_welcome_page_sure_element: new_welcome_page_sure_element.click() # 1.2 【切換位置】對話框 change_city_cancle_element = is_element_exist(self.driver, 'com.dangdang.buy2:id/left_bt') if change_city_cancle_element: change_city_cancle_element.click() extra_job = ExtraJob(dangdang.driver) extra_job.start()
接下來就是點擊搜索按鈕,然后輸入內容,執行點擊搜索對話框。
# 1.搜索框 search_element_pro = self.wait.until( EC.presence_of_element_located((By.ID, 'com.dangdang.buy2:id/index_search'))) search_element_pro.click() search_input_element = self.wait.until( EC.presence_of_element_located((By.ID, 'com.dangdang.buy2:id/search_text_layout'))) search_input_element.set_text(KEY_WORD) # 2.搜索對話框,開始檢索 search_btn_element = self.wait.until( EC.element_to_be_clickable((By.ID, 'com.dangdang.buy2:id/search_btn_search'))) search_btn_element.click() # 3.休眠3秒,保證第一頁的內容加載完全 time.sleep(3)
待第一頁的數據加載完全之后,可以一直向上滾動頁面,直到數據全部被加載完全,數據會由 mitmproxy 自動保存到 MongoDB 數據庫當中。
while True: str1 = self.driver.page_source self.driver.swipe(FLICK_START_X, FLICK_START_Y + FLICK_DISTANCE, FLICK_START_X, FLICK_START_X) time.sleep(1) str2 = self.driver.page_source if str1 == str2: print('停止滑動') # 停止線程 extra_job.stop() break print('繼續滑動'
首先使用 mitmdump 開啟請求監聽的服務,然后執行爬取腳本。
App 會自動打開,執行一系列操作后,到達商品界面,然后自動滑動界面,通過 mitmproxy 自動把有用的數據保存到 MongoDB 數據庫中。
以上就是Python怎么爬取當當網APP數據,小編相信有部分知識點可能是我們日常工作會見到或用到的。希望你能通過這篇文章學到更多知識。更多詳情敬請關注億速云行業資訊頻道。
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。