首页 > 其他分享 > Spider实战系列-抓取《一人之下第三季》

Spider实战系列-抓取《一人之下第三季》

时间:2023-02-08 20:01:29浏览次数:74  
标签:一人之下 抓取 m3u8 url Spider ts https path data

今天我们抓取的是m3u8的视频,视频有长视频和短视频之分.

抓取m3u8类型视频

对于短视频

一般来说一个视频对应的就是一个url

长视频   

一个视频就几百兆到几十G不等  这种视频往往不会由一个连接进行全部返回  视频是由多个片段组成的每个片段大概是几秒到几分钟

所以对于长视频的下载没有办法通过一个url进行获取下载,需要获取每个频段的url 进行下载进行拼接最终变成一个完整的视频

然而视频还有加密之分

我们使用合并视频的工具 ffmpeg ,如果没有加密的视频,直接根据每个片段的url进行下载拼接即可 如果有加密的视频 根据加密的地址 请求加密的key,然后在进行合并,FFmpeg会自动进行解密

网站链接:​​网吧电影 - 更新最快的高清电影网站,超清蓝光免费在线点播 (wbdyba.com)​

分析

  Spider实战系列-抓取《一人之下第三季》_协程

  Spider实战系列-抓取《一人之下第三季》_spider_02

  Spider实战系列-抓取《一人之下第三季》_后端_03


第一次响应的地址:                               /20211213/fl6Q2MC2/1100kb/hls/index.m3u8

第二次请求m3u8:https://v4.cdtlas.com/20211213/fl6Q2MC2/1100kb/hls/index.m3u8

第一次请求m3u8:https://v4.cdtlas.com/20211213/fl6Q2MC2/index.m3u8

也就是是说第一次请求的域名加上响应就是第二次的地址

第二次的响应情况如下

  Spider实战系列-抓取《一人之下第三季》_封装_04

找的页面里第一个m3u8的地址src="/js/player/?url=https://v4.cdtlas.com/20211213/fl6Q2MC2/index.m3u8&id=60825&num=1&count=8&vt=1"

  Spider实战系列-抓取《一人之下第三季》_后端_05

思路

  1. 通过页面找到第一个m3u8的url  进行请求返回的响应中包含了第二次m3u8的部分url拼接进行请求
  2. 获取响应中包含所有片段ts的url对于所有ts的url进行请求,下载,获取片段
  3. 片段进行拼接,组装成视频,视频下载完成

导包

import requests
import re

代码实现

通过网页源代码得到m3u8的地址

url = 'https://www.wbdyba.com/play/60825_1_1.html'

headers = {
# 'Referer': 'https://www.wbdyba.com/play/60825_1_1.html',
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/109.0.0.0 Safari/537.36 Edg/109.0.1518.78'
}

# 把网页源代码下载到本地
res = requests.get(url, headers)

# with open('The_Outcast.html', 'wb')as f:
# f.write(res.content)
with open('The_Outcast.html','r',encoding='utf-8')as f:
data = f.read()

base_m3u8_url = re.search(
'<iframe id="mplay" name="mplay" src="/js/player/\?url=(.*?)" '
'allowfullscreen="allowfullscreen" mozallowfullscreen="mozallowfullscreen" msallowfullscreen="msallowfullscreen" oallowfullscreen="oallowfullscreen" webkitallowfullscreen="webkitallowfullscreen" frameBorder="no" width="100%" scrolling="no" height="100%">',data).group(1)
m3u8_url = base_m3u8_url.split('&')[0]

在这里我为什么要切片切出来呢?因为源码正则得到的m3u8地址不可用

# https://v4.cdtlas.com/20211213/fl6Q2MC2/index.m3u8&id=60825&num=1&count=8&vt=1 源码正则得到的
# https://v4.cdtlas.com/20211213/fl6Q2MC2/index.m3u8 网页发送请求的

当我在得到这两个url的时候,我也不确定哪一个能请求到真正的视频资源

所以我在下面用了两中验证来确定了,我们要的是浏览器能请求的m3u8地址

res1= requests.get('https://v4.cdtlas.com/20211213/fl6Q2MC2/index.m3u8&id=60825&num=1&count=8&vt=1',headers=headers)
res2 = requests.get('https://v4.cdtlas.com/20211213/fl6Q2MC2/index.m3u8',headers=headers)

print(res1.content.decode())
print(res2.content.decode())
if (res1==res2):
print('success')
else:
print('false')

结果如下

D:\Tools\Tool\python\python.exe D:/Tools/Workspace/PyWorkspace/dateProject/demo08-下载m3u8视频/一人之下.py
file not found
#EXTM3U
#EXT-X-STREAM-INF:PROGRAM-ID=1,BANDWIDTH=1100000,RESOLUTION=864x486
/20211213/fl6Q2MC2/1100kb/hls/index.m3u8

false

请求m3u8地址,拿到响应并得到第二次请求

进行m3u8第一次请求   目的为了获取第二次请求的m3U8的地址
res1 = requests.get(m3u8_url,headers=headers)
with open('index1.m3u8', 'wb', )as f:
f.write(res1.content)

  Spider实战系列-抓取《一人之下第三季》_后端_06

with open('index1.m3u8', 'r', encoding='utf-8')as f:
data_index = f.readlines()[-1].strip()
# print(data_index)
'''
https://v4.cdtlas.com/20211213/fl6Q2MC2/1100kb/hls/index.m3u8
'''
# 拼接第二次请求的url 获得第二次请求的m3u8文件
url2 = urljoin(m3u8_url, data_index)
res2 = requests.get(url2,headers = headers)
with open('index2.m3u8', 'wb', )as f:
f.write(res2.content)

  Spider实战系列-抓取《一人之下第三季》_协程_07

封装得到m3u8的方法

def get_m3u8(url):
res = requests.get(url, headers)
base_m3u8_url = re.search(
'<iframe id="mplay" name="mplay" src="/js/player/\?url=(.*?)" '
'allowfullscreen="allowfullscreen" mozallowfullscreen="mozallowfullscreen" msallowfullscreen="msallowfullscreen" oallowfullscreen="oallowfullscreen" webkitallowfullscreen="webkitallowfullscreen" frameBorder="no" width="100%" scrolling="no" height="100%">',
res.content.decode()).group(1)
m3u8_url = base_m3u8_url.split('&')[0]

# 进行m3u8第一次请求 目的为了获取第二次请求的m3U8的地址
res1 = requests.get(m3u8_url, headers=headers)
with open('index1.m3u8', 'wb', )as f:
f.write(res1.content)

with open('index1.m3u8', 'r', encoding='utf-8')as f:
data_index = f.readlines()[-1].strip()
# print(data_index)
'''
https://v4.cdtlas.com/20211213/fl6Q2MC2/1100kb/hls/index.m3u8
'''
# 拼接第二次请求的url 获得第二次请求的m3u8文件
url2 = urljoin(m3u8_url, data_index)
res2 = requests.get(url2, headers=headers)
with open('index2.m3u8', 'wb', )as f:
f.write(res2.content)
return url2

封装下载ts片段的方法

单进程下载

下载所有的ts

def download_all():
# 下载存储ts文件的路径
path = 'ts'
if not os.path.exists(path):
os.mkdir(path)
with open('index2.m3u8', 'r', encoding='utf-8')as f:
data = f.readlines()
# print(data)

for i in data:
'''
这里还可以协程
if l.startwith('#'):
continue
'''
if (i.startswith('https')):
# 取出url结尾的换行符
ts_url = i.strip()
down_one(ts_url, path)

下载单个ts

def down_one(ts_url, path):
print(ts_url, '===正在下载')
'''
https://hey07.cjkypo.com/20211213/fl6Q2MC2/1100kb/hls/Vuzb3l70.ts
https://hey07.cjkypo.com/20211213/fl6Q2MC2/1100kb/hls/0HiRyylQ.ts
https://hey07.cjkypo.com/20211213/fl6Q2MC2/1100kb/hls/Z6W1fh5y.ts
https://hey07.cjkypo.com/20211213/fl6Q2MC2/1100kb/hls/u9ZW3cN2.ts
'''
name = ts_url.split('/')[-1]
res = requests.get(ts_url, headers=headers)
# 进行下载储存
with open(os.path.join(path, name), 'wb')as f:
f.write(res.content)
多任务下载
from concurrent.futures import ThreadPoolExecutor,wait


def down_one(ts_url, path):
while 1:
try:
print(ts_url, '===正在下载')
'''
https://hey07.cjkypo.com/20211213/fl6Q2MC2/1100kb/hls/Vuzb3l70.ts
https://hey07.cjkypo.com/20211213/fl6Q2MC2/1100kb/hls/0HiRyylQ.ts
https://hey07.cjkypo.com/20211213/fl6Q2MC2/1100kb/hls/Z6W1fh5y.ts
https://hey07.cjkypo.com/20211213/fl6Q2MC2/1100kb/hls/u9ZW3cN2.ts
'''
name = ts_url.split('/')[-1]
# 请求ts的url如果60秒还没下载完进行重新下载
res = requests.get(ts_url, headers=headers,timeout=60)
# 进行下载储存
with open(os.path.join(path, name), 'wb')as f:
f.write(res.content)
print(ts_url, '===下载成功')
break
except:
print(url,'下载失败,重新在下载')


def download_all():
# 下载存储ts文件的路径
path = 'ts'
if not os.path.exists(path):
os.mkdir(path)
with open('index2.m3u8', 'r', encoding='utf-8')as f:
data = f.readlines()
# print(data)
#创建线程池
pool = ThreadPoolExecutor(100)
tasks = []# 装任务的列表

for i in data:
'''
这里还可以协程
if l.startwith('#'):
continue
'''
if (i.startswith('https')):
# 取出url结尾的换行符
ts_url = i.strip()
# 添m任务到线程池
tasks.append(pool.submit(down_one(ts_url, path)))
# 阻塞等地 所有都下载完毕再向下执行
wait(tasks)

处理下载后ts文件和m3u8文件的对应关系

# 处理下载后ts文件和m3u8文件的对应关系
def do_m3u8_url():
with open('index2.m3u8', 'r', encoding='utf-8')as f:
data = f.readlines()

f = open('index3.m3u8', 'w', encoding='utf-8')

for i in data:
if i.startswith('#'):
f.write(i)
else:
f.write(i.split('/')[-1])

进行合并处理

def merge(filename='output'):
'''
进行ts文件合并 解决视频音频不同步的问题 建议使用这种
:param filePath:
:return:
'''
os.chdir(path)
cmd = f'ffmpeg -i index3.m3u8 -c copy {filename}.mp4'
os.system(cmd)

main函数

if __name__ == '__main__':
url = 'https://www.wbdyba.com/play/60825_1_1.html'

headers = {
'Referer': 'https://www.wbdyba.com/play/60825_1_1.html',
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/109.0.0.0 Safari/537.36 Edg/109.0.1518.78'
}

# 下载存储ts文件的路径
path = 'ts'
# 获取m3u8文件内容也就是所有的ts 的url
get_m3u8(url)
download_all()
do_m3u8_url()
# 进行合并处理
merge()

更改为协程版本

import os
import re
from urllib.parse import urljoin

import requests
from aiohttp import ClientSession, TCPConnector
import asyncio
import aiofiles


async def get_m3u8(url):
async with ClientSession(connector=TCPConnector(ssl=False), headers=headers) as session:
async with session.get(url)as resp:
data = await resp.text(encoding='utf-8')
base_m3u8_url = re.search('<iframe id="mplay" name="mplay" src="/js/player/\?url=(.*?)" '
'allowfullscreen="allowfullscreen" mozallowfullscreen="mozallowfullscreen" msallowfullscreen="msallowfullscreen" oallowfullscreen="oallowfullscreen" webkitallowfullscreen="webkitallowfullscreen" frameBorder="no" width="100%" scrolling="no" height="100%">'
, data).group(1)
m3u8_url = base_m3u8_url.split('&')[0]
async with session.get(m3u8_url)as resp:
data = await resp.text(encoding='utf-8')
# 进行m3u8第一次请求 目的为了获取第二次请求的m3U8的地址
async with aiofiles.open('index.m3u8', 'w', encoding='utf-8')as f:
await f.write(data)
async with aiofiles.open('index.m3u8', 'r', encoding='utf-8')as f:
data_index = await f.readlines()
# 进行第二次url请求 url的获取
data_index = data_index[-1].strip()
# print(data_index)
'''
https://v4.cdtlas.com/20211213/fl6Q2MC2/1100kb/hls/index.m3u8
'''
# 拼接第二次请求的url 获得第二次请求的m3u8文件
url2 = urljoin(m3u8_url, data_index)
async with session.get(url2)as resp:
data = await resp.text(encoding='utf-8')
async with aiofiles.open('index.m3u8', 'w', encoding='utf-8')as f:
await f.write(data)
return url2


async def down_one(ts_url, path, sem):
while 1:
# 使用信号量控制并发
async with sem:
try:
# 请求ts的url如果60秒还没下载完进行重新下载
async with ClientSession(connector=TCPConnector(ssl=False), headers=headers)as session:
print(ts_url, '===正在下载')
name = ts_url.split('/')[-1]
'''
https://hey07.cjkypo.com/20211213/fl6Q2MC2/1100kb/hls/Vuzb3l70.ts
https://hey07.cjkypo.com/20211213/fl6Q2MC2/1100kb/hls/0HiRyylQ.ts
https://hey07.cjkypo.com/20211213/fl6Q2MC2/1100kb/hls/Z6W1fh5y.ts
https://hey07.cjkypo.com/20211213/fl6Q2MC2/1100kb/hls/u9ZW3cN2.ts
'''
async with session.get(ts_url, timeout=60)as resp:
data = await resp.read()
# 进行下载储存
async with aiofiles.open(os.path.join(path, name), 'wb')as f:
await f.write(data)
print(ts_url, '===下载成功')
break
except:
print(ts_url, '下载失败,重新在下载')


async def download_all():
with open('index.m3u8', 'r', encoding='utf-8')as f:
data = f.readlines()
if not os.path.exists(path):
os.mkdir(path)
# print(data)
# 创建线程池
sem = asyncio.Semaphore(200)
tasks = [] # 装任务的列表

for i in data:
'''
这里还可以协程
if l.startwith('#'):
continue
'''
if (i.startswith('https')):
# 取出url结尾的换行符
ts_url = i.strip()
# 添m任务到线程池
tasks.append(asyncio.create_task(down_one(ts_url, path, sem)))
# 阻塞等地 所有都下载完毕再向下执行
await asyncio.wait(tasks)


# 处理下载后ts文件和m3u8文件的对应关系
def do_m3u8_url():
with open('index.m3u8', 'r', encoding='utf-8')as f:
data = f.readlines()
f = open(os.path.join(path, 'index.m3u8'), 'w', encoding='UTF-8')
for i in data:
if i.startswith('#'):
# 这一步操作是把index.m3u8文件里的key换成我们自己的
f.write(i)
if i.find('URI')!=-1:
new_i = i.replace('https://hey07.cjkypo.com/20211213/fl6Q2MC2/1100kb/hls/key.key','key.m3u8')
f.write(new_i)
else:
f.write(i.split('/')[-1])

# 下载密钥
def get_key():
resp = requests.get('https://hey07.cjkypo.com/20211213/fl6Q2MC2/1100kb/hls/key.key')
f = open(os.path.join(path, 'key.m3u8'), 'w', encoding='UTF-8')

f.write(resp.text)


def merge(filename='output'):
'''
进行ts文件合并 解决视频音频不同步的问题 建议使用这种
:param filePath:
:return:
'''
os.chdir(path)
cmd = f'D:/Tools/Tool/ffmpeg-4.4.1-essentials_build/bin/ffmpeg -i index.m3u8 -c copy {filename}.mp4'
os.system(cmd)


async def main():
# 获取m3u8文件内容也就是所有的ts 的url
task = asyncio.create_task(get_m3u8(url))
await asyncio.gather(task)
task = asyncio.create_task(download_all())
await asyncio.gather(task)
do_m3u8_url()
get_key()
# 进行合并处理
merge()


if __name__ == '__main__':
url = 'https://www.wbdyba.com/play/60825_1_1.html'

headers = {
'Referer': 'https://www.wbdyba.com/play/60825_1_1.html',
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/109.0.0.0 Safari/537.36 Edg/109.0.1518.78'
}

# 下载存储ts文件的路径
path = 'ts'

loop = asyncio.get_event_loop()
loop.run_until_complete(main())

密钥解密

# 下载密钥
def get_key():
resp = requests.get('https://hey07.cjkypo.com/20211213/fl6Q2MC2/1100kb/hls/key.key')
f = open(os.path.join(path, 'key.key'), 'w', encoding='UTF-8')
f.write(resp.text)
if i.find('URI')!=-1:
new_i = i.replace('https://hey07.cjkypo.com/20211213/fl6Q2MC2/1100kb/hls/key.key','key.m3u8')
f.write(new_i)
else:

这里我直接使用的取巧的方法了,直接使用查找字符串并改变字符串

写完这个方法后在main函数内调用一次就好了

总结

在我们请求到m3u8地址时,源码内抓到的跟浏览器抓包工具里抓到的不一样,我们就需要把从源码得到的地址转成浏览器一样的地址,如果遇到ts文件中带key的要把他解密放在ts文件夹里.在密钥解密这里需要注意一点

ts文件夹的结构应该为

project/

ts/

0.ts

1.ts

...

index.m3u8

key.m3u8

密钥内容为key.m3u8

#EXTM3U
#EXT-X-VERSION:3
#EXT-X-TARGETDURATION:1
#EXT-X-PLAYLIST-TYPE:VOD
#EXT-X-MEDIA-SEQUENCE:0
#EXT-X-KEY:METHOD=AES-128,URI="key.m3u8"
#EXTINF:1.235,
0.ts
#EXTINF:1.001,
1.ts
#EXTINF:1.001,
2.ts

  Spider实战系列-抓取《一人之下第三季》_协程_08

写在最后

我只抓取了第一集,小伙伴像抓取其他集,只需要用一个for循环输入不同的url即可

  Spider实战系列-抓取《一人之下第三季》_后端_09

标签:一人之下,抓取,m3u8,url,Spider,ts,https,path,data
From: https://blog.51cto.com/u_15915681/6044749

相关文章

  • Fiddler抓取HTTPS最全(强)攻略!
    对于想抓取HTTPS的测试初学者来说,常用的工具就是fiddler。但是初学时,大家对于fiddler如何抓取HTTPS难免走歪路,也许你一步步按着网上的帖子成功了,这自然是极好的。但也......
  • 百度联想:用Python抓取百度关键字联想信息
    Python抓取百度关键字联想信息参考:https://www.jianshu.com/p/dc1ec2456331?appinstall=0MAC上运行经常得到乱码,只有偶尔非乱码;该方法其实没什么实用价值。#https://ww......
  • 无法加载文件 C:\Users\Administrator\Desktop\spider01\venv\Scripts\activat
    遇到问题原因Restricted(防止运行没有数字签名的脚本),要设置成remotesigned模式解决方案输入get-executionpolicy以管理员的方式打开Powershall运行,并在命令窗......
  • 功能测试必备:Fiddler 抓取 HTTPS 请求
    大家好啊,我是大田今天分享Fiddler如何抓取HTTPS常见页面请求,测试工作中需要我们抓取HTTPS请求来测试其报文是否有问题。需要注意的是,并不是所有的HTTPS请求都能抓......
  • python爬虫电影数据抓取实战
    想要了解最近电影院播放的都有什么影视电影,哪部值得推荐,如果单纯靠手动收搜不全面,下面我们就先使用urllib.request模块抓取整个网页,再使用re模块获取电影信息,做个简单的爬虫......
  • Fiddler抓取手机APP报文
    Http协议代理工具有很多,比如BurpSuite、Charles、Jmeter、Fiddler等,它们都可以用来抓取APP报文,其中charles和BurpSuite是收费的,Jmeter主要用来做接口测试,而Fiddler提供了......
  • 通过tcpdump抓取lldp/cdp报文判断服务器上联网络配置
    在一般运维工作中,时常要检查服务器的网络配置,例如服务器有几个网卡,有没有做绑定,上联网络情况等。一般可以从以下几个方面判断:查看布线表查看CMDB搜索相关信息通过上行交换机......
  • D. Friendly Spiders(bfs最短路径、质数虚点建图)
    题意:给一个长度为n的数组a,数组中两两不互质的数可以建一条边,即$gcd(a[i],a[j])≠1$,i,j之间存在伊奥无向边问s到t的最短路径是多长,并输出题解根据唯一分解......
  • python3.7+ 安装pyspider报错解决方案
    前言环境:Macospython3.7遇到的错误及解决方案1.格式错误async=True,get_object=False,no_input=False):^SyntaxError:invalidsyntaxpython3.7版本以上,需要将......
  • Kali 工具系列【2】在kali linux 上抓取握手包
    1、接入一块外置的无线网卡。2、查看可用的wifi接口,回显结果中有wlan0即代表支持监控模式airmon-ng3、开启无线网卡监控模式airmon-ngstartwlan0 命令执行后网卡接口变为......