0
点赞
收藏
分享

微信扫一扫

知识体系目录


🍅 作者主页:​​不吃西红柿​​ 


【公号全部知识体系如下】

知识体系目录_机器学习


一、爬虫获取所有评论
首先我用到了一下 python包

# encoding: utf-8
from bs4 import BeautifulSoup
import requests
import random
import time,os
import configparser
import json

cf = configparser.RawConfigParser()
cf.read(os.path.join(os.path.dirname(__file__)+"conf"))
cookie = cf.get, "cookie")

不会安装小伙伴自己百度一下哈~

传入的参数:

# main begin
if __name__ == '__main__':
# 文章id,天选人数量(比如抽2本书)
articleId ,lucky_cnt = '120337051' , 2
# 天选人数
comment_list = get_comments(articleId)
lucky = random.sample(comment_list,lucky_cnt)
print('获得实体书的%s位幸运小伙伴是:'%str(lucky_cnt),lucky)

文章id:文章id看自己的链接哈!

天选人数量:即抽奖数量,本期西红柿抽2个人!包邮宋实体书,想要什么书,大家也可以选!

获取所有的评论

def get_comments(articleId):
# 确定评论的页数
main_res = get_commentId(articleId,1)
pageCount = json.loads(main_res)['data']['pageCount']

comment_list = []
for p in range(1,pageCount+1):
res = get_commentId(articleId, p)
commentIds = json.loads(res)['data']['list']
for i in commentIds:
nickName = i['info']['nickName']
comment_list.append(nickName)
print(comment_list)
print('文章:' + str(articleId) + ' 丨 评论数:' + str(len(comment_list)))
return comment_list


举报

相关推荐

0 条评论