首页 > 编程语言 >Python爬虫实战,requests+tqdm模块,爬取漫画之家漫画数据(附源码)

Python爬虫实战,requests+tqdm模块,爬取漫画之家漫画数据(附源码)

时间:2022-12-27 09:34:47浏览次数:46  
标签:tqdm name url pic 源码 模块 漫画 chapterpic response

前言

今天给大家介绍的是Python爬取漫画数据,在这里给需要的小伙伴们代码,并且给出一点小心得。

首先是爬取之前应该尽可能伪装成浏览器而不被识别出来是爬虫,基本的是加请求头,但是这样的纯文本数据爬取的人会很多,所以我们需要考虑更换代理IP和随机更换请求头的方式来对漫画数据进行爬取。

在每次进行爬虫代码的编写之前,我们的第一步也是最重要的一步就是分析我们的网页。

通过分析我们发现在爬取过程中速度比较慢,所以我们还可以通过禁用谷歌浏览器图片、JavaScript等方式提升爬虫爬取速度。

开发工具

Python版本: 3.6

相关模块:

requests模块

re模块

time模块

bs4模块

tqdm模块

contextlib模块

环境搭建

安装Python并添加到环境变量,pip安装需要的相关模块即可。

文中完整代码及文件,评论留言获取

思路分析

浏览器中打开我们要爬取的页面
按F12进入开发者工具,查看我们想要的漫画数据在哪里
这里我们需要页面数据就可以了

源代码结构

添加代理

在这里插入图片描述

漫画下载代码实现

# 下载漫画
for i, url in enumerate(tqdm(chapter_urls)):
    print(i,url)
    download_header = {
        'Referer':url,
        'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/84.0.4147.105 Safari/537.36'
    }
    name = chapter_names[i]
    # 去掉.
    while '.' in name:
        name = name.replace('.', '')
    chapter_save_dir = os.path.join(save_dir, name)
    if name not in os.listdir(save_dir):
        os.mkdir(chapter_save_dir)
    r = requests.get(url=url)
    html = BeautifulSoup(r.text, 'lxml')
    script_info = html.script
    pics = re.findall('\d{13,14}', str(script_info))
    for j, pic in enumerate(pics):
        if len(pic) == 13:
            pics[j] = pic + '0'
    pics = sorted(pics, key=lambda x: int(x))
    chapterpic_hou = re.findall('\|(\d{5})\|', str(script_info))[0]
    chapterpic_qian = re.findall('\|(\d{4})\|', str(script_info))[0]
    for idx, pic in enumerate(pics):
        if pic[-1] == '0':
            url = 'https://images.dmzj.com/img/chapterpic/' + chapterpic_qian + '/' + chapterpic_hou + '/' + pic[
                                                                                                             :-1] + '.jpg'
        else:
            url = 'https://images.dmzj.com/img/chapterpic/' + chapterpic_qian + '/' + chapterpic_hou + '/' + pic + '.jpg'
        pic_name = '%03d.jpg' % (idx + 1)
        pic_save_path = os.path.join(chapter_save_dir, pic_name)
        print(url)
        response = requests.get(url,headers=download_header)
        # with closing(requests.get(url, headers=download_header, stream=True)) as response:
            # chunk_size = 1024
            # content_size = int(response.headers['content-length'])
        print(response)
        if response.status_code == 200:
            with open(pic_save_path, "wb") as file:
                # for data in response.iter_content(chunk_size=chunk_size):
                    file.write(response.content)
        else:
            print('链接异常')
    time.sleep(2)

数据保存

数据保存

结果展示

数据保存

结果展示

最后

今天的分享到这里就结束了 ,感兴趣的朋友也可以去试试哈

对文章有问题的,或者有其他关于python的问题,可以在评论区留言或者私信我哦

觉得我分享的文章不错的话,可以关注一下我,或者给文章点赞(/≧▽≦)/

标签:tqdm,name,url,pic,源码,模块,漫画,chapterpic,response
From: https://www.cnblogs.com/guzichuan/p/17007345.html

相关文章

  • Spring IOC源码(九):IOC容器之 单例对象的创建
    1、源码解析getBean(name)是在IOC容器的顶级接口BeanFactory中定义,由其子类AbstractBeanFactory实现的方法。是IOC容器启动过程中的核心方法。核心方法流程getBean-......
  • 【项目源码】个人博客源码推荐
    一、参考资料1.蘑菇博客,一个基于微服务架构的前后端分离博客系统​​部署蘑菇博客​​部署步骤​​轻量应用服务器使用SSH登录Linux实例-操作指南-文档中心-腾......
  • 记一题关于git源码泄露题
    题目来源:NSSCTF——[NCTF2018]全球最大交友网站题目链接:https://www.ctfer.vip/problem/961打开环境:毫无思路,先学习一下Git源码泄露,Git就是一个内容文件寻址文件系统,......
  • go channel源码
    大纲是什么,结构体定义给chan送数据从chan读数据 是什么?1本质是一个环形数组源码中定义为hchan主要属性有数组长度数据数量环形数组环形......
  • Java同步器之ReentrantLock源码分析(一)
    一、概述ReentrantLock是Java并发包中提供的一个可重入的互斥锁。ReentrantLock和synchronized在基本用法,行为语义上都是类似的,同样都具有可重入性。只不过相比原生的Syn......
  • Java同步器之AQS源码分析
    一、简介AbstractQueuedSynchronizer(简称AQS),抽象的队列式的同步器,是Java并发包实现的基类。AQS用来构建锁和同步器的框架,使用AQS能简单且高效地构造出大量的应用广泛......
  • Apache Ranger系列九:修改源码支持URI类型为s3的操作
    问题描述:ranger在checkPrivileges(org.apache.ranger.authorization.hive.authorizer.RangerHiveAuthorizer)时,当类型是uri时会校验格式,必须是hdfs:,file:if(hiveObjTyp......
  • Reflector 源码分析
    Reflector源码分析前面我们说了Informer通过对APIServer的资源对象执行List和Watch操作,把获取到的数据存储在本地的缓存中,其中实现这个的核心功能就是Reflecto......
  • 源码剖析Flink设计思想,搞定Flink中的一切难题 | 文末送书
    大家好,我是梦想家Alex,好不容易到了周末,为了感谢大家一直以来的支持,我决定安排一次送书活动,感兴趣的朋友们记得划到文末去查看。流计算从出现到普及,经历了非常多的变化—......
  • 【脚本项目源码】Python制作提升成功率90%的表白神器
    前言今天子川就给大家带来就是的利用Python制作表白神器,让这个寒冷的冬天变得格外温馨,到了年底依然能热情拥抱,也见证了两人情意如昔;记得发给自己的心仪对象,废话不多说直接......