首页 > 其他分享 >爬取某米的有品 手机信息 xxh‘

爬取某米的有品 手机信息 xxh‘

时间:2022-09-06 18:44:39浏览次数:54  
标签:__ 某米 import 爬取 goodsInfo 有品 手机 data

#3156874915
import requests from requests import post from json import dumps from re import findall
# xiong xiao hui #爬取某米有品的手机信息 def get_content(need_item="手机"): url = "https://www.xiaomiyoupin.com/mtop/market/search/v2/doSearch" headers = { 'cookie': "source=duomai_244732316_3.duomai.244732316.1662528468494.748171370.1.2209061327484934808560; youpindistinct_id=1831144e6db680-0ced92fce3ade7-78565470; mjclient=PC; youpin_sessionid=18311fa4db8-0d23b94908e82f-238a", 'referer': "https://www.xiaomiyoupin.com/", 'user-agent': "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/105.0.0.0 Safari/537.36 Edg/105.0.1343.27" } # 这是data的类型 data = [{}, {"query": [{"queryName": "手机", "queryType": 0, "rule": []}], "sortBy": 0, "pageIdx": 0, "strategyInfo": None, "filter": None, "baseParam": {"imei": "", "clientVersion": "", "ypClient": 3}, "source": "searchPage", "requestId": "5707393421591074", "clientPageId": "3732617895117638", "recentAddress": None, "requestExtraInfo": {}, "pageSize": 20}] data123_xiongxiaohui = dumps(data) #将python对象编码成Json字符串 response = post(url=url, headers=headers, data=data_xiongxiaohui) response.encoding = 'utf-8' qwe=response.json() c=qwe["data"]['data']['goods'] for i in c: c=i['data']['goodsInfo']['summary'] c11=i['data']['goodsInfo']['name'] x33=int(i['data']['goodsInfo']['marketPrice'])/100 im4=i['data']['goodsInfo']['imgSquare'] print('手机名字::{},===介绍::{}===价格::{}====图片::{}'.format(c11,c,x33,im4)) if __name__ == '__main__': get_content()

 

标签:__,某米,import,爬取,goodsInfo,有品,手机,data
From: https://www.cnblogs.com/xxh12/p/16662941.html

相关文章

  • 为了防止这个公众号被封,我连夜用Python爬取了它所有图片~
    哈喽兄弟们,今天来试试批量获取公众号文章,emmm…  虽然名义上是文章,单其实它是一篇纯图片文,至于为什么不是文字,小姐姐不比文字香?  事前准备 ......
  • Python京东价格爬取为空
    京东价格爬取为空,正则/beautifulsoup/lxml都获取不到价格信息原因:由于网页html动态加载了数据,所以在检查模式下能看到价格,但是实际上用正则/beautifulsoup/lxml都获取不到......
  • python爬虫日记-爬取虎牙图片
    依赖requests库,运行此代码会爬取https://www.huya.com/g/2168上的图片,图片名字为@alt,会爬取到此脚本所在目录中的img文件夹中,没有此文件夹则运行不成功。importrequests......
  • 最近在找房子,就写了个程序,爬取一下58房源
    由于58的APP筛房子没有各种排序,不好找房子,没有我爱我家的APP写的好,但是我爱我家又要中介费就写了个程序爬取导出58所有房源,然后一览众山小步骤如下 下载使用Charles使......
  • 使用python批量爬取wallhaven.cc壁纸站壁纸
    偶然发现https://wallhaven.cc/这个壁纸站的壁纸还不错,尤其是更新比较频繁,用python写个脚本爬取点latest,按照更新先后排序,获得新地址,发现地址是分页展示的,每一页24张 ......
  • 只用20行代码,Python实现爬取网易云音乐,非常简单!
    哈喽,大家好,今天咱们试试只用20行代码来实现批量获取网抑云文件保存本地,炒鸡简单!悄悄的告诉你,其实不到20行代码~  你需要准备本次使用的环境是Python3.8,编......
  • 多线程的爬取
    #导入一个请求的模块importjsonimporttimefromconcurrent.futures.threadimportThreadPoolExecutorfromurllib.parseimporturlencodeimportrequests#图片的名字......
  • 正则爬取实例
    importreimportrequestsurl='https://b.faloo.com/11834781.html'headers={'User-Agent':'Mozilla/5.0(WindowsNT6.1;Win64;x64)AppleWebKit/537.36(KH......
  • 学习:python 小试验 ruquest爬虫 爬取音乐
    控制台抓包获取音乐链接不多说了   最后成功下载到本地 ......
  • python爬虫实例: 对指定城市kfc餐厅信息的爬取
    python爬虫实例:对指定城市kfc餐厅信息的爬取要求:爬取指定kfc餐厅数据kfc餐厅查询的url:http://www.kfc.com.cn/kfccda/storelist/index.aspx分析:由于餐厅信息......