这么做有啥用呢,一方面是为了防止他的微博删除,另一方面怕被系统和谐,所以就把他的微博内容爬取下来,然后保存到word文档中,以备不时查看...
那么接下来进入爬虫分析环节,小编这里选取的链接是:
https://m.weibo.cn/u/1893801487?jumpfrom=weibocom
打开链接后,我们可以看到下面有几个请求,查看了相应的链接后,通过和页面呈现内容对比,我们发现了数据返回的接口。
数据接口如下图:
再来看看请求的数据结构:
那我们想要在往下看更多的内容怎么办呢,接着往下翻页,看到他再次发送了请求,看看数据结构是否有变化,结果发现了有多出一个since_id。
结合接口返回数据分析,可以发现 since_id 是上一页接口返回数据中的一个值。那么我们想要查看下一页的数据的话,就拿上一次数据中的since_id 去构建请求就可以,那么什么时候数据没了呢,当数据中不存在 since_id 后,数据就到底了。
这一过程和前几篇给大家分享的 快手 和 抖音 的爬虫思路很相像,有兴趣的点击查看。因小编这里选择的数据量太大了,就不使劲往下拉了。接下来就是代码演示环节了。
代码如下:
import requests
import json
import time
import docx
from docx.shared import Inches
class Weibo(object):
def __init__(self):
self.req = requests.Session()
self.page = 1
self.headers = {
"user-agent": "'Mozilla/5.0 (iPhone; CPU iPhone OS 13_2_3 like Mac OS X) AppleWebKit/605.1.15"
" (KHTML, like Gecko) Version/13.0.3 Mobile/15E148 Safari/604.1'",
}
self.weekdict = {
'Mon': '星期一', 'Tue': '星期二', 'Wed': '星期三',
'Thu': '星期四', 'Fri': '星期五', 'Sat': '星期六', 'Sun': '星期日'
}
self.mondict = {
'Jan': '01', 'Feb': '02', 'Mar': '03', 'Apr': '04', 'May': '05', 'Jun': '06', 'Jul': '07',
'Aug': '08', 'Sep': '09', 'Oct': '10', 'Nov': '11', 'Dec': '12'
}
self.file = docx.Document() # 创建内存中的word文档对象
def getList(self, since_id=None):
global page
while True:
url = 'https://m.weibo.cn/api/container/getIndex?type=uid' \
'&value=6367430139&containerid=1076036367430139&since_id={}'.format(since_id)
res = self.req.get(url, headers=self.headers)
r = json.loads(res.text)
since_id = r['data']['cardlistInfo']['since_id']
cards_list = r['data']['cards']
for item in cards_list:
img_url_list = []
if item['mblog']['isLongText']:
if item['mblog']['pic_num'] > 0:
img_url_list = item['mblog']['pics']
self.getLongText(item['mblog']['id'], item['mblog']['created_at'], img_url_list)
else:
if item['mblog']['pic_num'] > 0:
img_url_list = item['mblog']['pics']
txt = item['mblog']['text'].replace('<br />', '\n')
self.writeFile(item['mblog']['created_at'], txt, img_url_list)
page = page + 1
time.sleep(2)
self.file.save("wb.docx")
# 获取全文
def getLongText(self, id, date, imglist):
url = 'https://m.weibo.cn/statuses/extend?id={}'.format(id)
res = self.req.get(url)
try:
r = json.loads(res.text)
txt = r['data']['longTextContent'].replace('<br />', '\n')
self.writeFile(date, txt, imglist)
print(r['data']['longTextContent'])
print('写入成功,{}'.format(url))
except:
print('写入文件出错,跳过···{}'.format(url))
time.sleep(2)
def fotmatDate(self, str_param):
param_list = str_param.split(' ')
date = '{}-{}-{} {} {}'.format(param_list[-1], self.mondict[param_list[1]],
param_list[2], param_list[3], self.weekdict[param_list[0]])
return date
def writeFile(self, date, data, img_list):
self.file.add_heading(self.fotmatDate(date), level=1)
para = self.file.add_paragraph(data)
run = para.add_run('')
run.add_break()
for item in img_list:
img = self.req.get(item['large']['url']).content
with open('img.jpg', 'wb') as f:
f.write(img)
run.add_picture('img.jpg', width=Inches(2))
if __name__ == '__main__':
weibo = Weibo()
weibo.getList()