中文字幕av专区_日韩电影在线播放_精品国产精品久久一区免费式_av在线免费观看网站

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

【更新】爬取姓名大全的名字

發布時間:2020-07-12 12:38:19 來源:網絡 閱讀:906 作者:努力的C 欄目:開發技術

接上文,可以不用一個網址一個網址的輸入了,能抓取頁面

http://www.yw11.com/namelist.php

上列出的所有名字大全,不必再像上一個程序一樣一個網址一個網址的輸入了。嘿嘿。


#coding=utf-8
import urllib2
import re
from bs4 import BeautifulSoup
import sys
reload(sys)  
sys.setdefaultencoding('utf-8') 
def getHtml(url):
 	page=urllib2.urlopen(url)
 	html=page.read()
 	return html
def getAllUrl(url):
	html=getHtml(url)
	soup=BeautifulSoup(html,'html.parser')
	ul=soup.find_all('ul',attrs={'class':'e3'})[0]
	a=ul.find_all('a')
	# for i in a:
	# 	urls=i['href']
	# 	print urls
	# print "一共有"+str(len(a))
	return a
url='http://www.yw11.com/namelist.php'
user_agent='Mozilla/5.0 (Macintosh; Intel Mac OS X 10_10_4) AppleWebKit/600.7.12 (KHTML, like Gecko) Version/8.0.7 Safari/600.7.12'
headers={"User-Agent":user_agent}
urls=getAllUrl(url)
f=open('name.txt','a')
for index in range(len(urls)):
	lianjie=urls[index]['href']
	mingzi=urls[index].text
	print "正在抓取姓"+mingzi +"的名字......"
	request=urllib2.Request(lianjie,headers=headers)
	html=getHtml(request)
	soup=BeautifulSoup(html,'html.parser')
	divs=soup.find_all('div',attrs={"class":"listbox1_text"})[0]
	ul=divs.find_all('ul')[0]
	lis=ul.find_all('li')
	for index in range(len(lis)):
		name=lis[index].text.lstrip()#左對齊
		f.write(name)
		f.write('\r\n')
	print "抓取了"+(str(index)+1)+"個"+mingzi+"名字"
f.close()
f=open('name.txt','r')
lines=f.readlines()
print "當前一共有"+str(len(lines))
f.close()


向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

汝阳县| 金乡县| 海伦市| 秦安县| 福海县| 潼南县| 甘孜| 龙江县| 贵州省| 齐河县| 镇赉县| 金沙县| 仪征市| 剑川县| 翼城县| 都匀市| 新竹市| 宁国市| 榆树市| 浦城县| 平江县| 华蓥市| 堆龙德庆县| 和田市| 大英县| 开江县| 防城港市| 平昌县| 墨江| 吉林省| 樟树市| 綦江县| 苍山县| 肃北| 蒙自县| 常德市| 旅游| 土默特右旗| 德保县| 济南市| 莆田市|