中文字幕av专区_日韩电影在线播放_精品国产精品久久一区免费式_av在线免费观看网站

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Python爬取表格的步驟

發布時間:2020-07-03 16:42:05 來源:億速云 閱讀:473 作者:清晨 欄目:編程語言

小編給大家分享一下Python爬取表格的步驟,希望大家閱讀完這篇文章后大所收獲,下面讓我們一起去探討方法吧!

Python爬取表格的步驟:

1、檢查url地址,用raise_for_status()檢查url地址;

2、爬取資源,用BeautifulSoup()爬取數據,并且用find_all('tr')抓取其中的表格;

3、保存資源,用write()將表格保存到指定目錄。

from bs4 import BeautifulSoup 
import requests 
import csv 
import bs4 
#檢查url地址 
def check_link(url): 
 try: 
  r = requests.get(url) 
  r.raise_for_status() 
  r.encoding = r.apparent_encoding 
  return r.text 
 except: 
  print('無法鏈接服務器!!!') 
#爬取資源 
def get_contents(ulist,rurl): 
 soup = BeautifulSoup(rurl,'lxml') 
 trs = soup.find_all('tr') 
 for tr in trs: 
  ui = [] 
  for td in tr: 
   ui.append(td.string) 
  ulist.append(ui) 
#保存資源 
def save_contents(urlist): 
 with open("D:/2016年中國企業500強排行榜.csv",'w') as f: 
  writer = csv.writer(f) 
  writer.writerow(['2016年中國企業500強排行榜']) 
  for i in range(len(urlist)): 
   writer.writerow([urlist[i][1],urlist[i][3],urlist[i][5]]) 
def main(): 
 urli = [] 
 url = "http://www.maigoo.com/news/463071.html"
 rs = check_link(url) 
 get_contents(urli,rs) 
 save_contents(urli) 
main()

運行結果:

Python爬取表格的步驟

看完了這篇文章,相信你對Python爬取表格的步驟有了一定的了解,想了解更多相關知識,歡迎關注億速云行業資訊頻道,感謝各位的閱讀!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

南昌县| 仪陇县| 南开区| 长兴县| 偏关县| 澎湖县| 桓台县| 玉环县| 德昌县| 邵阳县| 河北省| 莆田市| 金川县| 阳原县| 左云县| 云霄县| 招远市| 邹城市| 青铜峡市| 阿拉善左旗| 确山县| 靖远县| 睢宁县| 芦溪县| 三明市| 长治市| 武邑县| 江孜县| 札达县| 岳西县| 河北省| 那曲县| 信阳市| 深泽县| 澳门| 紫阳县| 剑河县| 兰西县| 贵州省| 葫芦岛市| 贵定县|