首页 > 其他分享 >爬取彼岸图库中的图片数据

爬取彼岸图库中的图片数据

时间:2024-02-26 18:44:20浏览次数:24  
标签:__ name img 图库 彼岸 li 爬取 headers

from lxml import etree
import requests
import os
# 爬取彼岸图库中的图片数据
if __name__ == '__main__':
    #爬取到页面源码数据
    url = 'https://pic.netbian.com/4kmeinv/'
    headers = {
        'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/122.0.0.0 Safari/537.36'
    }
    response= requests.get(url=url, headers=headers)
    # response.encoding= 'utf-8'
    page_text = response.text
    tree = etree.HTML(page_text)
    li_list = tree.xpath('//div[@class="slist"]/ul/li')
    if not os.path.exists('./pictureB'):
        os.mkdir('./pictureB')
    for li in li_list:
        img_src = 'https://pic.netbian.com'+li.xpath('./a/img/@src')[0]
        img_name = li.xpath('./a/img/@alt')[0] + '.jpg'
        # 通用处理中文乱码的解决问题
        img_name = img_name.encode('iso-8859-1').decode('gbk')
        img_data = requests.get(url=img_src, headers=headers).content
        with open('./pictureB/'+img_name, 'wb') as fp:
            fp.write(img_data)
            print(img_name, '爬取成功')

标签:__,name,img,图库,彼岸,li,爬取,headers
From: https://www.cnblogs.com/lin513/p/18034947

相关文章

  • 爬取58二手房数据
    fromlxmlimportetreeimportrequests#爬取58二手房if__name__=='__main__':#爬取到页面源码数据url='https://m.58.com/bj/ershoufang/?reform=pcfront&PGTID=0d000001-000f-1085-0e36-5f17322b35a6&ClickID=1'headers={......
  • 每日(python爬取)
    python爬取网络小说清洗并下载至txt文件 什么是爬虫网络爬虫,也叫网络蜘蛛(spider),是一种用来自动浏览万维网的网络机器人。其目的一般为编纂网络索引。网络搜索引擎等站点通过爬虫软件更新自身的网站内容或其对其他网站的索引。网络爬虫可以将自己所访问的页面保存下来,以......
  • 删除Windows 11 文件资源管理器 左侧的图标(最全) 文档、音乐、视频、图片、图库、主
    删除Windows11文件资源管理器左侧的图标(最全)文档、音乐、视频、图片、图库、主文件夹等1、删除此电脑(文件资源管理器)左侧的图标,文件夹下的全部文件夹都可以删除,推荐重命名一下跟之前不一样就好了,删除此电脑(文件资源管理器)左侧的图标,文件夹下的全部文件夹都可以删除,推......
  • 爬取搜狗指定词条对应的搜索结果页面(简易网页采集器)
    #UA检测:门户网站的服务器会检测对应请求的载体身份标识,如果检测到请求载体的身份标识为某一款浏览器,说明是正常用户通过浏览器发起的正常的请求#如果检测到非浏览器发起的请求,则表示请求可能为不正常的请求(爬虫),那么有可能就会拒绝该请求#UA:User-Agent:(请求身份载体的身份标识)i......
  • p站图片爬取
    python爬虫主要思路:1.选取目标网页:获得链接,观察源代码构成。2.用request库的get方法取得源代码。其中header参数用于伪装正常浏览器发送请求,proxies用于设置访问代理,url为目标网站3.获取text后用BS对象查找相应内容标签,要注意利用id,class名的特殊性。4.获取到相应内容标签后需......
  • Python 爬取历史天气数据
    网站原始数据https://www.tianqishi.com/hangzhou/20240214.html源码importrequestsfrombs4importBeautifulSoupimportdatetimedefgetEachDayWeather(loaction,timeStamp):"""获取每一天的天气数据"""#1.获取网页地址urlHea......
  • 爬取 【豆瓣电影top250数据】 python代码
    importrequestsimportopenpyxlimportreimporttimeimportpymysqlclassDoubanSpider:def__init__(self):self.url_temp="https://movie.douban.com/top250?start={}"self.headers={'User-Agent':'Mozilla/5.0......
  • Visual Studio部署matplotlib绘图库的C++版本
      本文介绍在VisualStudio软件中配置、编译C++环境下matplotlibcpp库的详细方法。  matplotlibcpp库是一个C++环境下的绘图工具,其通过调用Python接口,实现在C++代码中通过matplotlib库的命令绘制各类图像。由于其需要调用Python接口,因此在配置matplotlibcpp库时有些较为麻烦......
  • Python实例:爬取网页中的一列数据
    在进行数据分析和处理时,我们常常需要从网页中提取数据。本文将介绍如何使用Python进行网页爬虫,从网页中抓取特定列的数据。一、安装所需库首先,我们需要安装两个Python库:requests和BeautifulSoup。requests库用于发送HTTP请求,而BeautifulSoup库用于解析HTML文档。可以使用以下命令来......
  • python爬虫爬取豆瓣电影top250并写入Excel中
    importrequestsimportreimportopenpyxl#创建工作表wb=openpyxl.Workbook()ws=wb.active#调整列距forletterin['B','C']:ws.column_dimensions[letter].width=66#发送网络请求headers={"User-Agent":'Mozilla/5.0(WindowsNT10.0;Win64;x64)......