爬取一整张页面的局部数据
抓取ajkx包
这一步出现了一些问题,和老师的不一样,直接输入没有sug包,但是一个一个字母输入可以得到sug包
代码如下:
import requests import json if __name__=='__main__': #获取url 注意此处的url为sug包里的url url = 'https://fanyi.baidu.com/sug' #将参数装入字典 datas = input('输入要翻译的字符:') data = {'kw':datas} #伪造头 headers = { 'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:106.0) Gecko/20100101 Firefox/106.0' } #发送请求(这里使用的是post) response = requests.post(url = url,data = data,headers = headers) #获取数据 与之前不一样的地方 dic_obj = response.json() #持久化存储 fp = open('./baidutrans','w',encoding='utf-8') json.dump(dic_obj,fp=fp,ensure_ascii=False) print('over!!!') #fp.close()标签:__,sug,url,爬虫,破译,headers,json,fp,百度 From: https://www.cnblogs.com/L-1906/p/16863868.html