某音上线网页版,午休时间撸了个爬虫(抖音网页版爬虫) Pyt

这是我参与8月更文挑战的第2天,活动详情查看:8月更文挑战

起因

中午边吃饭边刷手机,突然刷到某音刚上线了网页版 某音网页版,打开一看,好家伙,这不是抄…. 额,不,借鉴的油管么,就想着网站刚上线,肯定有没有那么强的反扒机制,撸个爬虫玩玩吧

目标网站

某音PC网页版

代码仓库

开源地址:某音爬虫

实现方案

主要使用Python3实现

  • requests 用来获取网页html代码,下载视频等
  • re 使用正则表达式从html中匹配链接等
  • selenium 由于视频页有动态数据,采用selenium方案获取加载后的数据 需要配合浏览器驱动使用

实现过程

一、请求一个列表页,获取到html,匹配出页面中全部详情页链接,生成链接池

二、原本想从链接池中取出详情页地址,请求详情页html,从中匹配出视频资源地址,进入视频池,但是测试后发现由于视频资源链接为动态获取,直接requests.get拿不到视频地址,于是采取了第二种方案,使用selenium调起浏览器来加载页面,加载完成后使用xpath定位到视频资源位置,提取资源链接进入视频池

三、从视频池中取出资源地址,下载保存到本地

四、到这里基本功能已经实现,代码执行中发现,链接池只能获取到10个链接,只能下载10个视频,检查后发现是列表页有懒加载功能,每次翻页到底部才能加载出下一页列表

五、到这里已经有了解决思路,只要我们自动翻页,一直翻到最后,加载完全部列表在去抓取链接池就可以了,此处使用selenium插入JS,操作翻页,然后运行代码,发现还是获取不到完整的链接池,只能获取到最后两页的,猜测可以是做了优化,翻过去的列表被移除了

六、这也好解决,我们只要在每次翻页的时候去获取一次链接池就,当翻页完成就可以获取到完整链接了,这样又诞生了一个新的问题,就是会获取到重复的链接,只要在翻页完成时,转换下数据类型,去重就可以了

七、然后就可以快乐的爬视频了

看起来上面说的不少,实际上只需要五十行左右代码就可以实现

具体代码如下

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
python复制代码import requests
import re
from selenium import webdriver
import time
from contextlib import closing


def get_home_ulrs(url):
browser = webdriver.Chrome();
browser.get(url)
num = browser.find_element_by_xpath(
'//*[@id="root"]/div/div[2]/div/div[4]/div[1]/div[1]/div[1]/span').text
num = int(int(num)/15)+1
urls = []
for i in range(num):
newList = re.findall('https\:\/\/www\.douyin\.com\/video\/[\d]*\?previous_page\=', browser.page_source)
urls = [*urls,*newList]
browser.execute_script('window.scrollTo(0, document.body.scrollHeight)')
time.sleep(2)
print(urls)
print(set(urls))
mainList =set(urls)
browser.close()
return mainList

def get_video(url):
browser = webdriver.Chrome();
browser.get(url)
html = browser.find_element_by_xpath(
'//*[@id="root"]/div/div[2]/div[1]/div[1]/div[1]/div[1]/div/div[1]/div[2]/video/source[1]')
video_url = html.get_attribute('src')
browser.close()
return video_url


def download(url, name):
with closing(requests.get(url=url, verify=False, stream=True)) as res:
with open('video/{}.mp4'.format(name), 'wb') as fd:
for chunk in res.iter_content(chunk_size=1024):
if chunk:
fd.write(chunk)

if __name__ == '__main__':
url = input('请输入个人主页地址')
print('正在获取视频地址')
urls = get_home_ulrs(url)
print(urls)
print('成功获取{}个,开始下载'.format(len(urls)))
index = 1
for url in urls:
video_url = get_video(url)
print('正在下载{}/{}'.format(len(urls),index))
download(video_url, index)
print('下载完成')
index += 1

视频演示

www.bilibili.com/video/BV1Af…

总结

本次爬站没有什么太大的障碍,没有什么复杂的反扒机制,没啥可说的…. 另外问下,这够判几年…

补充

目前本程序已经不适用于当前版本某音,原因是某音增加了新的反扒机制,会弹出滑动验证码,本文仅作学习参考使用

本文转载自: 掘金

开发者博客 – 和开发相关的 这里全都有

0%