中文字幕av专区_日韩电影在线播放_精品国产精品久久一区免费式_av在线免费观看网站

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

使用Python怎么實現一個爬蟲刷回復功能

發布時間:2021-04-09 17:21:36 來源:億速云 閱讀:180 作者:Leah 欄目:開發技術

使用Python怎么實現一個爬蟲刷回復功能?針對這個問題,這篇文章詳細介紹了相對應的分析和解答,希望可以幫助更多想解決這個問題的小伙伴找到更簡單易行的方法。

'''
獲取cookie
'''
def get_cookie(login_data, url, testurl=None):
  filename = "cookie"
  cookie = cookielib.MozillaCookieJar(filename)
  hadler = urllib2.HTTPCookieProcessor(cookie)
  opener = urllib2.build_opener(hadler)
  post_data = urllib.urlencode(
    {'logname': 123456, "logpass": "123456", "action": "login", })
  url = 'http://*****.me/waplogin.aspx'
  opener.open(url, post_data)
  cookie.save(ignore_discard=True, ignore_expires=True)
  print("獲取成功")
  # print(opener.open(testurl).read())

先要分析該網站登錄地址,登錄需要的參數,如上代碼

獲得cookie之后,分析該論壇的回復參數,該論壇采用的是post提交,需要有帖子id,回復內容等等,分析之后得到如下代碼

代碼先加載文件里面的cookie,然后調用了haha這個笑話api,當然我已經將這個api的json進行了處理,這里只要笑話內容就行。

'''
回復帖子
'''
def post_reply():
  filename = "cookie"
  cookie = cookielib.MozillaCookieJar(filename)
  cookie.load(filename, ignore_discard=True, ignore_expires=True)
  handler = urllib2.HTTPCookieProcessor(cookie)
  opener = urllib2.build_opener(handler)
  num=0
  for i in range(216255, 800000):
    num = num + 1
    huifu = urllib.urlencode(
      {'sendmsg': 0, "content": str(haha(num)), "action": "add", "id": str(i), "classid": 177})
    gradeUrl = 'http://******.me/bbs/book_re.aspx'
    result = opener.open(gradeUrl)
    print result.read()
    print "當前第" + str(num) + "" + "次回帖"
    print("當前帖子id" + str(i))
    sleep(1)

發帖子代碼:

'''
發帖子(普通帖子或者加懸賞分的帖子:并不是懸賞板塊的帖子)
'''
def post_articles(book_title, book_content, classid=177, sendmoney=0):
  filename = "cookie"
  cookie = cookielib.MozillaCookieJar(filename)
  cookie.load(filename, ignore_discard=True, ignore_expires=True)
  handler = urllib2.HTTPCookieProcessor(cookie)
  opener = urllib2.build_opener(handler)
  post_articles = urllib.urlencode(
    {'sendmsg': 0, "book_title": str(book_title), "action": "gomod", "siteid": "1000",
     "book_content": str(book_content), "classid": classid, "sendmoney": sendmoney})
  gradeUrl = 'http://*****.me/bbs/book_view_add.aspx'
  result = opener.open(gradeUrl, post_articles)
  print(result.read())

將這些代碼進行進行調用就可以去刷回復了。

使用Python怎么實現一個爬蟲刷回復功能

關于使用Python怎么實現一個爬蟲刷回復功能問題的解答就分享到這里了,希望以上內容可以對大家有一定的幫助,如果你還有很多疑惑沒有解開,可以關注億速云行業資訊頻道了解更多相關知識。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

汶川县| 卢龙县| 三亚市| 喀喇沁旗| 安西县| 怀远县| 武宁县| 榕江县| 乌拉特中旗| 察雅县| 尼勒克县| 无为县| 凌海市| 南乐县| 临漳县| 棋牌| 海淀区| 三江| 北川| 利津县| 溧水县| 林甸县| 林芝县| 宝山区| 阿拉善盟| 克山县| 麟游县| 垣曲县| 青海省| 招远市| 高邮市| 崇阳县| 香格里拉县| 柘荣县| 新乡市| 古交市| 无锡市| 阿拉善左旗| 双柏县| 高陵县| 图片|