您好!我是
@马哥python说
的小迷弟。
我用python开发了一个爬虫采集软件,可自动抓取抖音评论数据,并且含二级评论!
为什么有了源码还开发界面软件呢?
方便不懂编程代码的小白用户使用,无需安装python、无需懂代码,双击打开即用!
软件界面截图:
爬取结果截图:
软件运行演示:
【软件演示】抖音评论采集工具,可爬取上万条,含二级评论!
几点重要说明:
1. Windows用户可直接双击打开使用,无需Python运行环境,非常方便
2. 需要填入cookie和爬取目标视频链接
3. 支持同时爬多个视频的评论
4. 可爬取10个关键字段,含:视频链接,页码,评论者昵称,评论者id(个人抖音号),评论者主>页链接,评论时间,评论IP属地,评论点赞数,评论级别,评论内容。
5. 评论中包含二级评论及二级展开评论。
首先,定义接口地址作为请求地址:
url = 'https://www.douyin.com/aweme/v1/web/comment/list/'
定义一个请求头,用于伪造浏览器:
h1 = {
'accept': 'application/json, text/plain, */*',
'accept-encoding': 'gzip, deflate, br',
'accept-language': 'zh-CN,zh;q=0.9,en-US;q=0.8,en;q=0.7',
'cookie': '换成自己的cookie值',
'referer': 'https://www.douyin.com/',
'sec-ch-ua': '"Not_A Brand";v="99", "Google Chrome";v="109", "Chromium";v="109"',
'sec-ch-ua-mobile': '?0',
'sec-ch-ua-platform': '"macOS"',
'sec-fetch-dest': 'empty',
'sec-fetch-mode': 'cors',
'sec-fetch-site': 'same-origin',
'user-agent': ua,
其中,cookie是个关键参数,需要填写到软件界面里。cookie获取方法如下:
加上请求参数,告诉程序你的爬取条件是什么:
params = {
'device_platform': 'webapp',
'aid': 6383,
'channel': 'channel_pc_web',
'aweme_id': video_id,
'cursor': page * 20,
'count': 20,
'item_type': 0,
'insert_ids': '',
'rcFT': '',
'pc_client_type': 1,
'version_code': '170400',
'version_name': '17.4.0',
'cookie_enabled': 'true',
'screen_width': 1440,
'screen_height': 900,
'browser_language': 'zh-CN',
'browser_platform': 'MacIntel',
'browser_name': 'Chrome',
'browser_version': '109.0.0.0',
'browser_online': 'true',
'engine_name': 'Blink',
'engine_version': '109.0.0.0',
'os_name': 'Mac OS',
'os_version': '10.15.7',
'cpu_core_num': 4,
'device_memory': 8,
'platform': 'PC',
'downlink': 1.5,
'effective_type': '4g',
'round_trip_time': 150,
'webid': 7184233910711879229,
'msToken': 'LZ3nJ12qCwmFPM1NgmgYAz73RHVG_5ytxc_EMHr_3Mnc9CxfayXlm2kbvRaaisoAdLjRVPdLx5UDrc0snb5UDyQVRdGpd3qHgk64gLh6Tb6lR16WG7VHZQ==',
下面就是发送请求和接收数据:
url = 'https://www.douyin.com/aweme/v1/web/comment/list/'
r = requests.get(url, headers=h1, params=params)
json_data = r.json()
定义一些空列表,用于存放解析后字段数据:
ip_list = []
text_list = []
create_time_list = []
user_name_list = []
user_url_list = []
user_unique_id_list = []
like_count_list = []
cmt_level_list = []
循环解析字段数据,以"评论内容"为例:
for comment in comment_list:
text = comment['text']
text_list.append(text)
其他字段同理,不再赘述。
最后,是把数据保存到csv文件:
df = pd.DataFrame(
'目标链接': 'https://www.douyin.com/video/' + str(video_id),
'页码': page,
'评论者昵称': user_name_list,
'评论者id': user_unique_id_list,
'评论者主页链接': user_url_list,
'评论时间': create_time_list,
'评论IP属地': ip_list,
'评论点赞数': like_count_list,
'评论级别': cmt_level_list,
'评论内容': text_list,
if os.path.exists(result_file):
header = False
else:
header = True
df.to_csv(result_file, mode='a+', index=False, header=header, encoding='utf_8_sig')
完整代码中,还含有:判断循环结束条件、时间戳转换、二级评论及二级展开评论的采集等关键实现逻辑,详见文末。
软件界面采用tkinter开发。
主窗口部分:
work_path = os.getcwd()
if not os.path.exists(work_path + "/logs"):
os.makedirs(work_path + "/logs")
root = tk.Tk()
root.title('抖音评论采集软件 | 马哥python说')
root.minsize(width=850, height=650)
填写cookie控件:
tk.Label(root, justify='left', font=('微软', 14), text='个人Cookie:').place(x=30, y=75)
entry_ck = tk.Text(root, bg='#ffffff', width=110, height=2, )
entry_ck.place(x=30, y=100, anchor='nw')
填写视频链接控件:
tk.Label(root, justify='left', font=('微软', 14), text='视频链接:').place(x=30, y=145)
note_ids = tk.StringVar()
note_ids.set('')
entry_nt = tk.Text(root, bg='#ffffff', width=110, height=14, )
entry_nt.place(x=30, y=170, anchor='nw')
底部软件版权说明:
copyright = tk.Label(root, text='@马哥python说 All rights reserved.', font=('仿宋', 10), fg='grey')
copyright.place(x=290, y=625)
好的日志功能,方便软件运行出问题后快速定位原因,修复bug。
核心代码:
def get_logger(self):
self.logger = logging.getLogger(__name__)
formatter = '[%(asctime)s-%(filename)s][%(funcName)s-%(lineno)d]--%(message)s'
self.logger.setLevel(logging.DEBUG)
sh = logging.StreamHandler()
log_formatter = logging.Formatter(formatter, datefmt='%Y-%m-%d %H:%M:%S')
info_file_name = time.strftime("%Y-%m-%d") + '.log'
case_dir = r'./logs/'
info_handler = TimedRotatingFileHandler(filename=case_dir + info_file_name,
when='MIDNIGHT',
interval=1,
backupCount=7,
encoding='utf-8')
日志文件截图:
完整python源码及exe软件,微信公众号"老男孩的平凡之路"后台回复"爬抖音评论软件"即可获取。点击直达
抖音很火,楼主使用python随机爬取抖音视频,并且无水印下载,人家都说天下没有爬不到的数据,so,楼主决定试试水,纯属技术爱好,分享给大家。。
1.楼主首先使用Fiddler4来抓取手机抖音app这个包,具体配置的操作,网上有很多教程供大家参考。
上面得出抖音的视频的url,这些url均能在网页中打开,楼主数了数,这些url的前缀有些不同,一共有这4种类型:
v1-dy.ixigu...
京东商品评价采集工具是易佰软件工作室推出的一款能够批量采集京东商品评价信息以及评价图片的软件支持如下功能:1)支持直接输入商品链接方式采集商品信息。2)支持批量采集商品的买家评价信息以及评价图片数据。3)支持数据的自动保存,自动恢复(退出软件自动保存,打开软件自动恢复上次查询的结果)4)支持导出宝贝的买家评价信息为excel格式文件,图片存放在软件目录下。更新日志 v1.3.0.01.增加可以采集京东默认折叠的评论内容(隐藏评价)2.增加采集评价买家购买的,信息3.增加按关键词采集京东商品
百度搜索引擎提供全网抓取网页数据、全网搜索、图片搜索、学术搜索、文章搜索、知乎搜索、网页爬虫、采集网站数据、网页数据采集软件、python爬虫、HTM网页提取、APP数据抓包、APP数据采集、一站式网站采集技术、BI数据的数据分析、数据标注等成为大数据发展中的热门技术关键词。那么搜索采集百度搜索引擎数据的方法有哪些呢?我给大家分享一下,我爬虫的个人经验,我们在采集类似搜索引擎网站数据的时候会遇到什么技术问题,然后再根据这些问题给大家分享采集方案.
一、写爬虫采集网站之前:
为什么经常听到有些网站的域名被
外贸数据采集的进口商数据、外贸数据、采购商、出口数据和商业数据,网页抓取数据、网页爬虫、采集网站数据、网页数据采集软件、python爬虫、HTM网页提取、APP数据抓包、APP数据采集、一站式网站采集技术、BI数据的数据分析、数据标注等成为大数据发展中的热门技术关键词。那么外贸数据采集数据的方法有哪些呢?我给大家分享一下,我爬虫的个人经验,我们在采集类似外贸网站数据的时候会遇到什么技术问题,然后再根据这些问题给大家分享采集方案.
一、写爬虫采集网站之前:
为什么经常听到有些网站的域名被劫持、服务器被he
网站数据采集的网页抓取数据、网页爬虫、采集网站数据、网页数据采集软件、python爬虫、HTM网页提取、APP数据抓包、APP数据采集、一站式网站采集技术、BI数据的数据分析、数据标注等成为大数据发展中的热门技术关键词。那么网站数据采集数据的方法有哪些呢?我给大家分享一下,我爬虫的个人经验,我们在采集类似网站数据的时候会遇到什么技术问题,然后再根据这些问题给大家分享采集方案.
一、写爬虫采集网站之前:
为什么经常听到有些网站的域名被劫持、服务器被heikegongji、数据库被盗等
大家平时登录一个网
国外
数据采集的网页抓取
数据、国外
数据资源、国外
数据查找、网页爬虫、
采集网站
数据、网页
数据采集软件、
python爬虫、HTM网页提取、
APP数据采集、一站式网站
采集技术、BI
数据的
数据分析、
数据标注等成为大
数据发展中的热门技术关键词。那么国外
数据采集的方法有哪些呢?我给大家分享一下,我爬虫的个人经验,我们在
采集类似国外网站
数据的时候会遇到什么技术问题,然后再根据这些问题给大家分享
采集方案.
一、写爬虫
采集网站之前:
为什么经常听到有些网站的域名被劫持、服务器被heikegongji、
数据库被盗等
app采集的抓取数据、app抓包、网页爬虫、采集网站数据、app数据采集软件、python爬虫、HTM网页提取、APP数据抓包、APP数据采集、一站式网站采集技术、BI数据的数据分析、数据标注等成为大数据发展中的热门技术关键词。那么app采集数据的方法有哪些呢?我给大家分享一下,我爬虫的个人经验,我们在采集类似app采集网站数据的时候会遇到什么技术问题,然后再根据这些问题给大家分享采集方案.
写爬虫采集网站之前:
为什么经常听到有些网站的域名被劫持、服务器被黑客攻击、数据库被盗等
大家平时登录一个网站,
为了采集抖音评论,你可以使用Python爬虫。以下是一个简单的爬虫示例,它使用了Selenium和BeautifulSoup库来模拟浏览器行为和解析HTML页面。在这个示例中,我们使用了随机代理和引用地址来规避反爬。
```python
import time
import random
from selenium import webdriver
from bs4 import BeautifulSoup
# 设置代理和引用地址
PROXY = "http://xxx.xxx.xxx.xxx:xxxx"
REFERER = "https://www.douyin.com/"
# 设置浏览器选项
options = webdriver.ChromeOptions()
options.add_argument('--proxy-server=%s' % PROXY)
options.add_argument('referer=%s' % REFERER)
# 启动浏览器
browser = webdriver.Chrome(options=options)
# 打开抖音视频页面
url = "https://www.douyin.com/video/xxxxxxxxxxxxxxx"
browser.get(url)
# 模拟滚动页面
for i in range(5):
browser.execute_script('window.scrollTo(0, document.body.scrollHeight);')
time.sleep(random.randint(1, 3))
# 解析页面
soup = BeautifulSoup(browser.page_source, 'html.parser')
comments = soup.find_all('div', {'class': 'comment-item'})
# 输出评论
for comment in comments:
print(comment.find('p', {'class': 'comment-text'}).text)
# 关闭浏览器
browser.quit()