🍅 作者主页:不吃西红柿
【公号全部知识体系如下】
一、爬虫获取所有评论
首先我用到了一下 python包
# encoding: utf-8
from bs4 import BeautifulSoup
import requests
import random
import time,os
import configparser
import json
cf = configparser.RawConfigParser()
cf.read(os.path.join(os.path.dirname(__file__)+"conf"))
cookie = cf.get, "cookie")
不会安装小伙伴自己百度一下哈~
传入的参数:
# main begin
if __name__ == '__main__':
# 文章id,天选人数量(比如抽2本书)
articleId ,lucky_cnt = '120337051' , 2
# 天选人数
comment_list = get_comments(articleId)
lucky = random.sample(comment_list,lucky_cnt)
print('获得实体书的%s位幸运小伙伴是:'%str(lucky_cnt),lucky)
文章id:文章id看自己的链接哈!
天选人数量:即抽奖数量,本期西红柿抽2个人!包邮宋实体书,想要什么书,大家也可以选!
获取所有的评论
def get_comments(articleId):
# 确定评论的页数
main_res = get_commentId(articleId,1)
pageCount = json.loads(main_res)['data']['pageCount']
comment_list = []
for p in range(1,pageCount+1):
res = get_commentId(articleId, p)
commentIds = json.loads(res)['data']['list']
for i in commentIds:
nickName = i['info']['nickName']
comment_list.append(nickName)
print(comment_list)
print('文章:' + str(articleId) + ' 丨 评论数:' + str(len(comment_list)))
return comment_list