首页 > 其他分享 >爬虫_060_urllib post请求百度翻译的详细翻译

爬虫_060_urllib post请求百度翻译的详细翻译

时间:2024-02-12 22:11:28浏览次数:28  
标签:baidu 060 翻译 request urllib Sec data

目录

百度翻译详细翻译接口

image-20240212215412072

这个接口,是我上一次用的接口,MD。

关于复制的小技巧

这个接口的参数数据就比较多了,我们都需要构建到data对象当中。

这里可以第一步,先复制数据,然后粘贴到sublime当中。

image-20240212215324454

第二步,在sublime当中使用正则表达式进行匹配替换,具体的匹配正则是(.*): (.*),替换正则是'\1': '\2',,如下所示:

image-20240212215300758

第三步,当我们点击replace all之后,就会变成下面的样子,我们可以直接复制到pycharm当中。

image-20240212215348079

复制浏览器全部的request header

image-20240212220201242

使用了全部的request header之后,还是会出现错误的情况。

这是因为,如上所示的Accept-Encoding这一行一定一定要注释掉。

然后,就成功了:

image-20240212220317710

代码

import urllib.request
import urllib.parse
import json

headers = {
    'Accept': '*/*',
    # 'Accept-Encoding': 'gzip, deflate, br',
    'Accept-Language': 'en-US,en;q=0.9,zh-CN;q=0.8,zh;q=0.7',
    'Acs-Token': '1707739203275_1707745719253_quc6AWGAYRx43JBG38dEQrzI0/YYmBkJA3kipqbjj92wSkwBPjmJrtAqbjrvirmdWeWzqhxfdL2y+nrdlzRvy92Xgy+AETOkPIh3LJnNTNP39WYcuwxtoMhR4FQqP/B8kGheWQjriq+3mfZLrQiBihGV24YtFwzltmJBDr/pHbrXjpx9Zp3bUkUk2WRipXeor+EihqZy+iY23s6iHe33KD1mBR3PnX+vhWA8mWcU3RpzpmE3xgUf9a3u94Cc+4n1Ibn0J/Ai6JWg6Hmf07Olu3TO1mK3L0RF0Au5t/WgeE/8Hj1Md23SeoUHddk64dJoJGsukByPOk6m2g2KZdx1VcCI4xS9eoxeDVcs6lwdsrgpuVlMtrul+Rkb+WdhaanPyVpwP8qDaV4p2KhyZhR4R+s22uoPRzFFDA7FvJ2UUZeuUC/FMC8y8tAflF3EltzfdOnDLDC+xmqLkKnzIFyDo6VNnTFBSVh3dROohT2vN04=',
    'Cache-Control': 'no-cache',
    'Connection': 'keep-alive',
    'Content-Length': '152',
    'Content-Type': 'application/x-www-form-urlencoded; charset=UTF-8',
    'Cookie': 'H_WISE_SIDS=216851_213351_214796_110085_244726_261710_236312_256419_265881_266361_267288_267074_268478_268592_268030_259642_268670_269731_269832_269904_270083_267066_256739_270460_270548_270442_271173_271177_271226_256957_267659_269296_271319_265032_271271_271578_270102_271726_271882_271671_269853_269771_269875_269564_271943_256154_234295_234208_272223_272279_266566_267596_272365_272012_272504_253022_272077_272611_272764_272815_272801_260335_272998_271284_273060_273094_273154_273118_273141_273242_273301_273399_273396_271157_270055_273520_273462_273198_272562_271562_271147_273671_273703_264170_270185_273735_273741_273924_274081_273931_273965_274176_269610_274206_273918_273351_273045_273595_272858_272855_274328_272618_274356_272319_188331; H_WISE_SIDS_BFESS=216851_213351_214796_110085_244726_261710_236312_256419_265881_266361_267288_267074_268478_268592_268030_259642_268670_269731_269832_269904_270083_267066_256739_270460_270548_270442_271173_271177_271226_256957_267659_269296_271319_265032_271271_271578_270102_271726_271882_271671_269853_269771_269875_269564_271943_256154_234295_234208_272223_272279_266566_267596_272365_272012_272504_253022_272077_272611_272764_272815_272801_260335_272998_271284_273060_273094_273154_273118_273141_273242_273301_273399_273396_271157_270055_273520_273462_273198_272562_271562_271147_273671_273703_264170_270185_273735_273741_273924_274081_273931_273965_274176_269610_274206_273918_273351_273045_273595_272858_272855_274328_272618_274356_272319_188331; BDUSS=GtDYVJOQXhhOGFndk9XOFhKOUY3ZGd0OHNUTHBEOWlvam9SbXFYYXJIZWdTbHRsRVFBQUFBJCQAAAAAAAAAAAEAAABWdpLrvNPK2c2kwt4AAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAKC9M2WgvTNlM; BDUSS_BFESS=GtDYVJOQXhhOGFndk9XOFhKOUY3ZGd0OHNUTHBEOWlvam9SbXFYYXJIZWdTbHRsRVFBQUFBJCQAAAAAAAAAAAEAAABWdpLrvNPK2c2kwt4AAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAKC9M2WgvTNlM; BAIDUID=1051D247173D4AE24940CEE00AD208CF:FG=1; BIDUPSID=1051D247173D4AE24940CEE00AD208CF; PSTM=1702218668; H_PS_PSSID=40155_40203_40206_40211_40215_40222_40062; BDORZ=B490B5EBF6F3CD402E515D22BCDA1598; BAIDUID_BFESS=1051D247173D4AE24940CEE00AD208CF:FG=1; ZFY=sxANs46b2LscIvHG:AKuHlaU8yGhEVmSIK164G5Y8zvs:C; __bid_n=18d886405c14368b133294; BA_HECTOR=85al24248k0g24040la00l0lftfp3h1isjudt1t; BDRCVFR[feWj1Vr5u3D]=I67x6TjHwwYf0; PSINO=1; delPer=0; APPGUIDE_10_6_9=1; REALTIME_TRANS_SWITCH=1; FANYI_WORD_SWITCH=1; HISTORY_SWITCH=1; SOUND_SPD_SWITCH=1; SOUND_PREFER_SWITCH=1; Hm_lvt_64ecd82404c51e03dc91cb9e8c025574=1707741883; RT="z=1&dm=baidu.com&si=36f056a9-56e3-45a3-a296-bb466d58cafa&ss=lsiz2zmw&sl=9&tt=3y0&bcn=https%3A%2F%2Ffclog.baidu.com%2Flog%2Fweirwood%3Ftype%3Dperf&ld=cxqk"; Hm_lpvt_64ecd82404c51e03dc91cb9e8c025574=1707745337; ab_sr=1.0.1_NmJiYTBiMjJmN2MyNmE3MDQ5YTYwZTZmYTc5YWY5ODc2NGJiYTg5ODU5NDcxNTNmY2ZjYTY2ZmI1ZmQ3OTIxYmMyYzA3Yjc5NTBmMTE1MDg3ZTgwYjcyMDI0MzRiMjRjOGQ3OGE1ZjUxOGRkYTNjMjYzZjJkNzBlZDJlNjYzZjExYzFhYzkwZjhjOTc4YzhmMDYxYmI0MDVkYzI2YTEzNDc1NjI3ZjQ5MDY4MGM0YjM2Njg3YTYyODVkOGNiMDVi',
    'Host': 'fanyi.baidu.com',
    'Origin': 'https://fanyi.baidu.com',
    'Pragma': 'no-cache',
    'Referer': 'https://fanyi.baidu.com/?aldtype=16047&ext_channel=Aldtype',
    'Sec-Ch-Ua': '"Not A(Brand";v="99", "Google Chrome";v="121", "Chromium";v="121"',
    'Sec-Ch-Ua-Mobile': '?0',
    'Sec-Ch-Ua-Platform': '"Windows"',
    'Sec-Fetch-Dest': 'empty',
    'Sec-Fetch-Mode': 'cors',
    'Sec-Fetch-Site': 'same-origin',
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/121.0.0.0 Safari/537.36',
    'X-Requested-With': 'XMLHttpRequest',
}
url = 'https://fanyi.baidu.com/v2transapi?from=en&to=zh'
# post请求的参数必须要进行编码
data = {
    'from': 'en',
    'to': 'zh',
    'query': 'love',
    'transtype': 'realtime',
    'simple_means_flag': '3',
    'sign': '198772.518981',
    'token': '6dab4cd9524d6653409c8da4b382cf38',
    'domain': 'common',
    'ts': '1707745719210',
}
data = urllib.parse.urlencode(data).encode('utf-8')
request = urllib.request.Request(url=url, data=data, headers=headers)
response = urllib.request.urlopen(request)
content = response.read().decode('utf-8')
obj = json.loads(content)
print(obj)

这里面起决定性作用的是Cookie。

image-20240212220558732

标签:baidu,060,翻译,request,urllib,Sec,data
From: https://www.cnblogs.com/gnuzsx/p/18014185

相关文章

  • 爬虫_059_urllib post请求百度翻译
    目录分析百度翻译找接口编写代码需要注意的点修改代码返回数据解析最后的说明分析百度翻译找接口编写代码importurllib.requestimporturllib.parseheaders={'User-Agent':'Mozilla/5.0(WindowsNT10.0;Win64;x64)AppleWebKit/537.36(KHTML,likeGecko)......
  • 爬虫_058_urllib get请求的urlencode方法
    目录urllib.parse.urlencode()quote方法使用的不是很经常的。因为quote的作用是将汉字转为百分号编码后的ASCII字符串。如果你的路径当中只有一个参数,你这样使用quote拼接一下url,这是没有问题的。如果你的路径当中有多个参数,并且参数都是中文的,你还使用quote,就TMD懵逼了。......
  • 爬虫_057_urllib get请求的quote方法
    目录引子编码集的演变需求知识点重新测试get请求方式的quote方法引子将百度搜索周杰伦的地址栏地址,复制到pycharm当中变成下面的样子:https://www.baidu.com/s?wd=%E5%91%A8%E6%9D%B0%E4%BC%A6编码集的演变ASCII编码:一个字符一个字节中国:GB2312日本:Shift_JIS韩国:Euc-k......
  • 爬虫_056_urllib请求对象的定制
    目录url组成第一个反爬-UA校验制造一个UA请求对象的定制url组成协议httphttps主机www.baidu.com端口号http80https443mysql3306oracle1521redis6379mongodb27017路径参数?号锚点#号第一个反爬-UA校验制造一个UA从浏览器......
  • 爬虫_055_urllib下载
    目录下载网页下载图片下载视频总结下载网页下载图片下载视频总结真的,没有什么含金量,就是找到资源的地址,然后使用urllib.request.urlretrieve()就可以了。......
  • 爬虫_054_urllib的1个类型和6个方法
    目录1个类型read()方法readline()方法readlines()方法getcode()方法geturl()方法getheaders()方法1个类型response的类型是HTTPResponseread()方法read():一个字节一个字节去读取,直到读完。read(5):读取5个字节readline()方法readline()方法就是读取一行。readline......
  • 爬虫_053_urllib的基本使用
    目录urllib简介基本代码使用urllib简介urllib是python自带的,不需要我们安装。基本代码使用importurllib.requesturl='http://www.baidu.com'response=urllib.request.urlopen(url)#read()方法返回字节形式的二进制数据b'xxx',需要解码成字符串content=respons......
  • Proxmox 7.4 使用vgpu_unlock,为GTX1060开启vGPU支持
    本文在2021年发布的博客《Proxmox5.4使用vgpu_unlock,为GTX1060开启vGPU支持》,介绍了ProxmoxVE5.4上部署vGPUunlock的操作步骤。 后续有发布了在 ProxmoxVE7.x上支持vGPU的博客《Proxmox7.2部署DoraCloud桌面云,支持vGPU》,实现了通过3个脚本完成vGPU的配置。 ......
  • 一款简洁高效的输入、截图、划词翻译软件
    大家好,我是Java陈序员。英语是我们程序员工作中经常会遇到的,无论是翻阅官方文档,还是编程开发都离不开英语。有时候,我们会为了一个变量名、方法名、类名苦思冥想,常常需要使用翻译软件来起一个贴切而优美的名字。今天,给大家介绍一个简洁高效的翻译软件,使用快捷键即可快速完成翻......
  • urllib
    importurllib.requestimporturllib.parse#请求地址url='http://www.baidu.com'url_img_video=''#影音文件headers={'User-Agent':'Mozilla/5.0(WindowsNT10.0;Win64;x64)AppleWebKit/537.36(KHTML,likeGecko)Chr......