
本工具仅限学术交流使用,严格遵循相关法律法规,符合平台内容的合法及合规性,禁止用于任何商业用途!
我是马哥,一枚10年+程序猿,现全职独立开发。
抖音是国内极具影响力的短视频社交平台,靠着强互动性和庞大的达人创作者群体,已然成为热点事件发酵、优质内容传播的领域。之前,为了满足大家不同的数据采集需求,我分别独立开发了三款软件:针对评论采集的“爬抖音搜索评论软件”、专门采集特定达人内容的“爬抖音博主软件”,还有专门转换链接uid的“抖音转换工具”。
这三款软件采集起来挺稳定、数据也全,但部分用户反馈,要是又想采评论又想采主页作品,来回切换软件,用着有点麻烦。为了解决这个问题,我把这三款软件整合到一起了,推出了全新的“爬抖音聚合软件v1.0”。这款软件把评论采集、达人主页采集、链接转换这三个核心功能都包含了,提供一站式搞定的抖音数据采集方案。
软件适用于:
【功能1】采集评论
采集评论界面:

采集到的作品数据:(共13个字段,含:关键词,页码,视频标题,视频链接,作者昵称,作者uid,作者链接,作者粉丝数,发布时间,点赞数,评论数,收藏数,转发数)

采集到的评论数据:(共11个字段,含:目标链接,页码,评论者昵称,评论者id,评论者uid,评论者主页链接,评论时间,评论IP属地,评论点赞数,评论级别,评论内容)

【功能2】根据主页链接采集作品
采集主页作品界面:

采集主页作品结果:(含17个字段,含:页码,作者昵称,uid,sec_uid,作者链接,作者粉丝数,视频标题,视频标签,视频链接,发布时间,视频时长,是否置顶,点赞数,评论数,收藏数,推荐数,转发数)

采集到的主页视频文件:

【功能3】链接与uid转换
转换功能1:主页链接转抖音号

转换功能2:抖音号转主页链接(含uid)

转换功能3:app端作品链接转pc端作品链接

几点说明,请详读:
软件全部模块采用python语言开发,主要分工如下:
tkinter:GUI软件界面
requests:发送请求
json:解析返回的响应数据
pandas:保存csv数据结果
logging:运行过程中日志记录
出于版权考虑,暂不公开源码,仅向用户提供软件使用。
部分代码实现:
发送请求并解析数据:
# 发送请求
r = requests.get(url, headers=h1, params=params)
# 解析数据
json_data = r.json()
解析响应数据,以“评论内容”字段为例:
for comment in comment_list:
# 评论内容
text = comment['text']
text_list.append(text)
保存结果数据到csv文件:
# 保存数据到DF
df = pd.DataFrame(
{
'目标链接': 'https://www.douyin.com/video/' + str(video_id),
'页码': page,
'评论者昵称': user_name_list,
'评论者id': user_unique_id_list,
'评论者uid': uid_list,
'评论者主页链接': user_url_list,
'评论时间': create_time_list,
'评论IP属地': ip_list,
'评论点赞数': like_count_list,
'评论级别': cmt_level_list,
'评论内容': text_list,
}
)
# 保存到csv
if os.path.exists(self.result_file2): # 如果文件存在,不再设置表头
header = False
else: # 否则,设置csv文件表头
header = True
df.to_csv(self.result_file2, mode='a+', index=False, header=header, encoding='utf_8_sig')
self.tk_show('视频[{}]第{}页评论已保存: {}'.format(video_id, page, self.result_file2))
底部版权声明:
# 版权信息
copyright = tk.Label(root, text='@马哥python说 All rights reserved.', font=('仿宋', 10), fg='grey')
copyright.place(x=290, y=625)
日志记录模块:
def get_logger(self):
self.logger = logging.getLogger(__name__)
# 日志格式
formatter = '[%(asctime)s-%(filename)s][%(funcName)s-%(lineno)d]--%(message)s'
# 日志级别
self.logger.setLevel(logging.DEBUG)
# 控制台日志
sh = logging.StreamHandler()
log_formatter = logging.Formatter(formatter, datefmt='%Y-%m-%d %H:%M:%S')
# info日志文件名
info_file_name = time.strftime("%Y-%m-%d") + '.log'
# 将其保存到特定目录
case_dir = r'./logs/'
info_handler = TimedRotatingFileHandler(filename=case_dir + info_file_name,
when='MIDNIGHT',
interval=1,
backupCount=7,
encoding='utf-8')
开始采集前,先把自己的cookie值填入cookie.txt文件。
cookie获取说明:

然后把复制的cookie值填写到当前文件夹的cookie.txt文件中。
用户登录界面:需要登录。
1)登录成功之后,选择需要的功能模块(搜索帖子/博主帖子/评论);
2)设置相关参数(如关键词、时间范围、博主链接等);
3)点击「开始执行」,等待采集完成(可实时查看采集进度);
4)采集完成后,在默认的当前文件夹中查看csv数据文件或视频下载等。