首页 > 其他分享 >【GUI界面软件】快手评论区采集:自动采集10000多条,含二级评论、展开评论!

【GUI界面软件】快手评论区采集:自动采集10000多条,含二级评论、展开评论!

时间:2024-03-20 10:25:52浏览次数:41  
标签:评论者 快手 list content 采集 评论 tk 软件

目录

一、背景说明

1.1 效果演示

您好!我是@马哥python说,一名10年程序猿。

我用python开发了一个爬虫采集软件,可自动抓取快手评论数据,并且含二级评论!

为什么有了源码还开发界面软件呢?方便不懂编程代码的小白用户使用,无需安装python、无需懂代码,双击打开即用!

软件界面截图:

爬取结果截图:

结果截图1:

结果截图2:

结果截图3:

以上。

1.2 演示视频

软件运行演示视频:
【软件演示】快手评论采集工具,可爬取上万条,含二级评论、展开评论!

1.3 软件说明

几点重要说明:

  1. Windows用户可直接双击打开使用,无需Python运行环境,非常方便!
  2. 需要填入cookie和爬取目标视频链接。
  3. 支持同时爬多个视频的评论。
  4. 可爬取9个关键字段,含:目标链接,页码,评论者昵称,评论者id,评论者主页链接,评论时间,评论点赞数,评论级别,评论内容。
  5. 评论中包含二级评论及二级展开评论。
  6. 爬取结果自动导出到csv文件。

二、代码讲解

2.1 爬虫采集模块

首先,定义接口地址作为请求地址:

# 请求地址
url = 'https://www.kuaishou.com/graphql'

定义一个请求头,用于伪造浏览器:

# 请求头
h1 = {
	'Accept': '*/*',
	'Accept-Encoding': 'gzip, deflate, br',
	'Accept-Language': 'zh-CN,zh;q=0.9',
	'Connection': 'keep-alive',
	'Content-Type': 'application/json',
	'Cookie': self.cookie_val,
	'Host': 'www.kuaishou.com',
	'Origin': 'https://www.kuaishou.com',
	'Referer': 'https://www.kuaishou.com',
	'Sec-Fetch-Dest': 'empty',
	'Sec-Fetch-Mode': 'cors',
	'Sec-Fetch-Site': 'same-origin',
	'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_7) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/119.0.0.0 Safari/537.36',
	'sec-ch-ua': '"Google Chrome";v="119", "Chromium";v="119", "Not?A_Brand";v="24"',
	'sec-ch-ua-mobile': '?0',
	'sec-ch-ua-platform': '"macOS"',
}

其中,cookie是个关键参数,需要填写到软件界面里。

cookie获取方法如下:

加上请求参数,告诉程序你的爬取条件是什么:

# 请求参数
params = {"operationName": "commentListQuery",
		  "variables": {
			  "photoId": video_id,
			  "pcursor": pcursor,
		  },
		  "query": "query commentListQuery($photoId: String, $pcursor: String) {\n  visionCommentList(photoId: $photoId, pcursor: $pcursor) {\n    commentCount\n    pcursor\n    rootComments {\n      commentId\n      authorId\n      authorName\n      content\n      headurl\n      timestamp\n      likedCount\n      realLikedCount\n      liked\n      status\n      authorLiked\n      subCommentCount\n      subCommentsPcursor\n      subComments {\n        commentId\n        authorId\n        authorName\n        content\n        headurl\n        timestamp\n        likedCount\n        realLikedCount\n        liked\n        status\n        authorLiked\n        replyToUserName\n        replyTo\n        __typename\n      }\n      __typename\n    }\n    __typename\n  }\n}\n"}

下面就是发送请求和接收数据:

# 发送请求
r = requests.post(url, json=params, headers=h1)
# 接收json数据
json_data = r.json()

定义一些空列表,用于存放解析后字段数据:

content_list = []  # 评论内容
create_time_list = []  # 评论时间
like_count_list = []  # 评论点赞数
author_name_list = []  # 评论者昵称
author_id_list = []  # 评论者id
author_link_list = []  # 评论者链接
comment_level_list = []  # 评论级别

循环解析字段数据,以"评论内容"为例:

# 循环解析
for data in json_data['data']['visionCommentList']['rootComments']:
	# 评论内容
	content = data['content']
	self.tk_show('评论内容:' + content)
	content_list.append(content)

其他字段同理,不再赘述。

最后,是把数据保存到csv文件:

# 保存数据到DF
df = pd.DataFrame(
	{
		'目标链接': 'https://www.kuaishou.com/short-video/' + video_id,
		'页码': page,
		'评论者昵称': author_name_list,
		'评论者id': author_id_list,
		'评论者主页链接': author_link_list,
		'评论时间': create_time_list,
		'评论点赞数': like_count_list,
		'评论级别': comment_level_list,
		'评论内容': content_list,
	}
)
# 保存到csv
if os.path.exists(self.result_file):  # 如果文件存在,不再设置表头
	header = False
else:  # 否则,设置csv文件表头
	header = True
df.to_csv(self.result_file, mode='a+', index=False, header=header, encoding='utf_8_sig')
self.tk_show('视频[{}]第{}页已保存到csv'.format(video_id, page))

完整代码中,还含有:游标控制翻页、判断循环结束条件、时间戳转换、二级评论及二级展开评论的采集等关键实现逻辑,详见文末。

2.2 软件界面模块

软件界面采用tkinter开发。

主窗口部分:

# 创建主窗口
root = tk.Tk()
root.title('快手评论采集软件v1.0 | 马哥python说')
# 设置窗口大小
root.minsize(width=850, height=650)

填写cookie控件:

# 【填入Cookie】
tk.Label(root, justify='left', font=('微软', 14), text='个人Cookie:').place(x=30, y=75)
entry_ck = tk.Text(root, bg='#ffffff', width=110, height=2, )
entry_ck.place(x=30, y=100, anchor='nw')  # 摆放位置

填写视频链接控件:

# 【视频链接】
tk.Label(root, justify='left', font=('微软', 14), text='视频链接:').place(x=30, y=185)
video_ids = tk.StringVar()
video_ids.set('')
entry_nt = tk.Text(root, bg='#ffffff', width=110, height=12, )
entry_nt.place(x=30, y=210, anchor='nw')  # 摆放位置

底部软件版权说明:

# 版权信息
copyright = tk.Label(root, text='@马哥python说 All rights reserved.', font=('仿宋', 10), fg='grey')
copyright.place(x=290, y=625)

以上。

2.3 日志模块

好的日志功能,方便软件运行出问题后快速定位原因,修复bug。

核心代码:

def get_logger(self):
	self.logger = logging.getLogger(__name__)
	# 日志格式
	formatter = '[%(asctime)s-%(filename)s][%(funcName)s-%(lineno)d]--%(message)s'
	# 日志级别
	self.logger.setLevel(logging.DEBUG)
	# 控制台日志
	sh = logging.StreamHandler()
	log_formatter = logging.Formatter(formatter, datefmt='%Y-%m-%d %H:%M:%S')
	# info日志文件名
	info_file_name = time.strftime("%Y-%m-%d") + '.log'
	case_dir = r'./logs/'
	info_handler = TimedRotatingFileHandler(filename=case_dir + info_file_name,
											when='MIDNIGHT',
											interval=1,
											backupCount=7,
											encoding='utf-8')

日志文件截图:

三、获取源码及软件

完整python源码及exe软件,微信公众号"老男孩的平凡之路"后台回复"爬快手评论软件"即可获取。点击直达


我是@马哥python说,一名10年程序猿,持续分享python干货中!

标签:评论者,快手,list,content,采集,评论,tk,软件
From: https://www.cnblogs.com/mashukui/p/18084631/ks_cmt_tool

相关文章

  • Python爬虫实战系列4:天眼查公司工商信息采集
    Python爬虫实战系列1:博客园cnblogs热门新闻采集Python爬虫实战系列2:虎嗅网24小时热门新闻采集Python爬虫实战系列3:今日BBNews编程新闻采集Python爬虫实战系列4:天眼查公司工商信息采集一、分析页面打开天眼查网址https://www.tianyancha.com/,随便搜索一个公司【比亚迪】查......
  • snownlp的原始评论文件直方图分析
    SnowNLP是一个专门为处理中文文本而创建的Python自然语言处理库。它是由isnowfy开发并在GitHub上开源的一个项目,地址为 https://github.com/isnowfy/snownlp 。SnowNLP受TextBlob库的启发,但针对中文文本处理的特点进行了定制化设计,并且没有依赖NLTK(NaturalLanguage......
  • openGauss Anomaly_detection_数据库指标采集_预测与异常监控
    Anomaly-detection:数据库指标采集、预测与异常监控可获得性本特性自openGauss1.1.0版本开始引入。特性简介anomaly_detection是openGauss集成的、可以用于数据库指标采集、预测以及异常监控与诊断的AI工具,是dbmind套间中的一个组件。支持采集的信息包括IO_Read、IO_Write、CPU......
  • 微博情感评论分析系统-完整代码数据 毕业设计
    ......
  • 抖音无水印视频批量下载|视频爬虫采集工具
    抖音无水印视频批量下载神器,关键词搜索轻松获取您想要的视频!    随着抖音视频内容日益丰富,您是否常常希望能够批量下载您感兴趣的视频,但现有工具只支持单个链接提取,操作繁琐?别担心,q1977470120我们特别开发了一款强大的抖音视频批量下载工具,让您通过关键词搜索轻松获取......
  • PLC数据远程采集
    在当今工业4.0时代,可编程逻辑控制器(PLC)作为工业自动化的核心组件,扮演着至关重要的角色。然而,传统的PLC数据采集方式往往受限于地域和距离,无法满足现代工业生产对于远程监控和管理的需求。HiWooBox一款PLC数据远程采集的网关产品,旨在为企业提供更加高效、便捷的远程数据采集......
  • opencv读取视频采集卡帧-调整分辨率
    VideoCapturecapture;capture.open(0,CAP_DSHOW); capture.set(CAP_PROP_FRAME_WIDTH,1920); capture.set(CAP_PROP_FRAME_HEIGHT,1080); MatmatFrame; capture.read(matFrame); capture.release();imshow("ShowFrame",matFrame);1-......
  • 关于送关与自动评论的说明
    本文主要讲述关于送关(注)与自动评论的说明。一、赠送关注送关,即赠送关注。当你在本账号下方做任何操作时(包括但不限于评论,点赞等),可以获得关注。在这里,建议可以评论的训练师尽量评论,且礼貌,评论后作者将会以回复评论或点赞的方式回复您。二、自动评论本账号接入了自......
  • 多语言跨境电商外贸商城跨境电商源码 商城多商户入驻带采集自适应手机外贸销售海外贸
    源码介绍一套多语言跨境商城源码,带采集.卖家入驻等,将近3个G的包,界面也简洁大方,页面布局和淘宝等多家平台类似,PC+H5随着全球电子商务的快速发展,越来越多的企业希望在跨境电子商务领域取得突破。然而,要实现这一目标,企业需要解决语言、货币和商户等多个方面的挑战。要满足不同国......
  • 计讯物联防水型loRa采集终端TG501-B6-8助攻智慧窨井盖解决方案,守护人们足下安全
    政策背景住房和城乡建设部等6部门联合发布《关于加强窨井盖安全管理的指导意见》,意见指出:到2025年年底前,窨井盖安全管理机制进一步完善,信息化、智能化管理水平明显加强,事故风险监测预警能力和应急处置水平显著提升,窨井盖安全事故明显减少。  来源于住房和城乡建设部窨井盖......