首页 > 其他分享 >爬虫获取照片

爬虫获取照片

时间:2024-06-05 14:45:28浏览次数:14  
标签:__ keyword img get url list 爬虫 照片 获取

import requests


def get_img_url(keyword):
    """发送请求,获取接口中的数据"""
    # 接口链接
    url = 'https://image.baidu.com/search/acjson?'
    # 请求头模拟浏览器
    headers = {
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/95.0.4638.69 Safari/537.36'}
    # 构造网页的params表单
    params = {
        'tn': 'resultjson_com',
        'logid': '6918515619491695441',
        'ipn': 'rj',
        'ct': '201326592',
        'is': '',
        'fp': 'result',
        'queryWord': f'{keyword}',
        'word': f'{keyword}',
        'cl': '2',
        'lm': '-1',
        'ie': 'utf-8',
        'oe': 'utf-8',
        'adpicid': '',
        'st': '-1',
        'z': '',
        'ic': '',
        'hd': '',
        'latest': '',
        'copyright': '',
        's': '',
        'se': '',
        'tab': '',
        'width': '',
        'height': '',
        'face': '0',
        'istype': '2',
        'qc': '',
        'nc': '1',
        'fr': '',
        'expermode': '',
        'force': '',
        'cg': 'girl',
        'pn': 1,
        'rn': '30',
        'gsm': '1e',
    }
    # 携带请求头和params表达发送请求
    response = requests.get(url=url, headers=headers, params=params)
    # 设置编码格式
    response.encoding = 'utf-8'
    # 转换为json
    json_dict = response.json()
    # 定位到30个图片上一层
    data_list = json_dict['data']
    # 删除列表中最后一个空值
    del data_list[-1]
    # 用于存储图片链接的列表
    img_url_list = []
    for i in data_list:
        img_url = i['thumbURL']
        # 打印一下图片链接
        # print(img_url)
        img_url_list.append(img_url)
    # 返回图片列表
    return img_url_list


if __name__ == '__main__':
    keyword = "小姐姐"
    # keyword入参:搜索关键词
    get_img_url(keyword)
import os

import requests

from get_img_url import get_img_url


def get_down_img(img_url_list):
    # 创建一个文件夹来保存图片
    if not os.path.exists('images'):
        os.makedirs('images')
    # 在当前路径下生成存储图片的文件夹
    for index, image_url in enumerate(img_url_list):
        # 将图片写入指定位置
        response = requests.get(image_url)
        with open(f"images/image_{index}.jpg", 'wb') as f:
            f.write(response.content)


if __name__ == '__main__':
    # 1. 修改关键词
    keyword = '小姐姐'
    # 2. 获取指定关键词的图片链接
    img_url_list = get_img_url(keyword)
    # 3. 下载图片到指定位置
    get_down_img(img_url_list)

 

标签:__,keyword,img,get,url,list,爬虫,照片,获取
From: https://www.cnblogs.com/python-test001/p/18233006

相关文章

  • 解析域名,获取域名ip并输出到终端
    /***author :[email protected]*@functionname: main*@brief:程序实现解析域名(如www.baidu.com),把获取到的域名的IP地址全部输出到终端*@param :@argc:终端输入参数的个数 :@argv[]:终端输入的参数*@date:......
  • 每次SSH登录时获取实时系统状态
            今天突发奇想,想要每次ssh登录的时候都可以看到系统的相关信息,接下来就把这个脚本分享给大家吧。当然了我们也可以在评论区讨论一下有哪些可以在改进的。[root@localhost~]#cat/etc/profile.d/system-info.sh#!/bin/bash#编写一个函数用于获取系统......
  • Vue 获取组件名称
    Vue2获取组件名称获取方式:this.$options.name解读:通过Vue2的 this 关键字,可以很容易地访问Vue组件实例对象身上的 $options 的name属性来获取组件名称。 <script>exportdefault{name:"Brand",mounted(){//Brandconsole.log(this.$options.......
  • .NET控制台获取依赖注入实例
    internalclassProgram{staticvoidMain(string[]args){//创建服务集合varservices=newServiceCollection();//注入services.AddScoped<IMyService,MyService>();//配置服务ConfigureServices(serv......
  • 从当当网批量获取图书信息
    爬取当当网图书数据并保存到本地,使用request、lxml的etree模块、csv模块保存数据到本地。爬取网页的url为:http://search.dangdang.com/?key={}&act=input&page_index={}其中{}为搜索关键字,page_index为页码。爬取的数据包括:书名、作者、出版社、图书简介、出版日期、价格......
  • Python网络爬虫要清理cookies 才能再爬,有啥解决方法嘛?
    大家好,我是Python进阶者。一、前言前几天在Python钻石交流群【大写一个Y】问了一个Python基网络爬虫的问题,问题如下:大佬们请教个问题我做了个在某眼查抓地址数据的爬虫,程序中做了随机2-5秒的循环延时,现在大概爬800多个地址,就会查不出数据,要清理cookies才能再爬,有啥解决方法......
  • 根据域名获取IP
    /****************************************************************************************************************************************filename:GetHostByName.c*author:[email protected]*date:2024/06/04*brief:设计程序实现解析w......
  • 设计程序实现解析www.baidu.com的域名,把获取到的百度的IP地址全部输出到终端并验证是
    目录题目分析代码结果题目设计程序实现解析www.baidu.com的域名,把获取到的百度的IP地址全部输出到终端并验证是否正确。分析1.通过目标域名获取目标IP地址对应的网络字节序(需强转为对应的类型),使用gethostbyname()函数;2.把获取的网络字节序转换为点分十进制的IP地址(需强......
  • 分享一个Python爬虫入门实例带数据分析(有源码,学习使用)
    Python爬虫是一种使用Python编程语言实现的自动化获取网页数据的技术。它广泛应用于数据采集、数据分析、网络监测等领域。以下是对Python爬虫的详细介绍:架构和组成:下载器:负责根据指定的URL下载网页内容,常用的库有Requests和urllib。解析器:用于解析下载的网页内容,提取所......
  • 自动化Reddit图片收集:Python爬虫技巧
    引言Reddit,作为一个全球性的社交平台,拥有海量的用户生成内容,其中包括大量的图片资源。对于数据科学家、市场研究人员或任何需要大量图片资源的人来说,自动化地从Reddit收集图片是一个极具价值的技能。本文将详细介绍如何使用Python编程语言,结合requests和BeautifulSoup库,来......