首页 > 其他分享 >爬虫五

爬虫五

时间:2023-11-08 17:12:58浏览次数:27  
标签:img self 爬虫 scrapy params div

打码平台

2、登录某些网站,会有验证码---》想自动破解

数字字母:python模块:ddddocr

计算题,成语题,滑块。。。:第三方打码平台,人工操作

 

2、打码平台

  云打码,超级鹰

 

3 、咱们破解网站登录的思路

  使用selenium----》打开网站----》(不能解析出验证码地址)---》使用截图

 

案例

超级鹰api demo下载

import requests
from hashlib import md5


class ChaojiyingClient(object):
    def __init__(self, username, password, soft_id):
        self.username = username
        password = password.encode('utf8')
        self.password = md5(password).hexdigest()
        self.soft_id = soft_id
        self.base_params = {
            'user': self.username,
            'pass2': self.password,
            'softid': self.soft_id,
        }
        self.headers = {
            'Connection': 'Keep-Alive',
            'User-Agent': 'Mozilla/4.0 (compatible; MSIE 8.0; Windows NT 5.1; Trident/4.0)',
        }

    def PostPic(self, im, codetype):
        """
        im: 图片字节
        codetype: 题目类型 参考 http://www.chaojiying.com/price.html
        """
        params = {
            'codetype': codetype,
        }
        params.update(self.base_params)
        files = {'userfile': ('ccc.jpg', im)}
        r = requests.post('http://upload.chaojiying.net/Upload/Processing.php', data=params, files=files,
                          headers=self.headers)
        return r.json()

    def PostPic_base64(self, base64_str, codetype):
        """
        im: 图片字节
        codetype: 题目类型 参考 http://www.chaojiying.com/price.html
        """
        params = {
            'codetype': codetype,
            'file_base64': base64_str
        }
        params.update(self.base_params)
        r = requests.post('http://upload.chaojiying.net/Upload/Processing.php', data=params, headers=self.headers)
        return r.json()

    def ReportError(self, im_id):
        """
        im_id:报错题目的图片ID
        """
        params = {
            'id': im_id,
        }
        params.update(self.base_params)
        r = requests.post('http://upload.chaojiying.net/Upload/ReportError.php', data=params, headers=self.headers)
        return r.json()


if __name__ == '__main__':
    chaojiying = ChaojiyingClient('306334678', 'lqz123', '903641')  # 用户中心>>软件ID 生成一个替换 96001
    im = open('a.jpg', 'rb').read()  # 本地图片文件路径 来替换 a.jpg 有时WIN系统须要//
    print(chaojiying.PostPic(im, 1004))  # 1902 验证码类型  官方网站>>价格体系 3.4+版 print 后要加()
    # print chaojiying.PostPic(base64_str, 1902)  #此处为传入 base64代码

 

打码平台自动登录

import time

from selenium import webdriver
from selenium.webdriver.common.by import By
from PIL import Image
from chaojiying import ChaojiyingClient

bro = webdriver.Chrome()

bro.maximize_window()

try:
    # 1 打开页面
    bro.get('https://www.chaojiying.com/user/login/')

    # 2 找到用户名,密码,验证码的输入框
    username = bro.find_element(By.XPATH, '/html/body/div[3]/div/div[3]/div[1]/form/p[1]/input')
    password = bro.find_element(By.XPATH, '/html/body/div[3]/div/div[3]/div[1]/form/p[2]/input')
    code = bro.find_element(By.XPATH, '/html/body/div[3]/div/div[3]/div[1]/form/p[3]/input')
    time.sleep(2)
    username.send_keys('306334678')
    time.sleep(2)
    password.send_keys('lqz123')

    # 3 验证码破解---》网页屏幕截图---》根据验证码图片的位置和大小,从网页截图中扣出验证码图片---》调用超级鹰--》完成破解---》填入
    # 网页截图
    bro.save_screenshot('main.png')
    # 找到img的大小和位置
    img = bro.find_element(By.XPATH, '/html/body/div[3]/div/div[3]/div[1]/form/div/img')
    location = img.location
    size = img.size
    print('大小是:', img.size)
    print('位置是:', img.location)
    # 获取图的 起始位置坐标  结束位置坐标
    img_tu = (
        int(location['x']), int(location['y']), int(location['x'] + size['width']), int(location['y'] + size['height']))
    # 使用pillow截图
    # #打开
    img = Image.open('./main.png')
    # 抠图
    fram = img.crop(img_tu)
    # 截出来的小图
    fram.save('code.png')

    # 调用超级鹰--》完成破解
    chaojiying = ChaojiyingClient('超级鹰用户名', '超级鹰密码', '903641')
    im = open('code.png', 'rb').read()
    res = chaojiying.PostPic(im, 1902)
    if res.get('err_no') == 0:
        code_img_text = res.get('pic_str')
        # 写入到验证码中
        code.send_keys(code_img_text)
        time.sleep(3)
        submit = bro.find_element(By.XPATH, '/html/body/div[3]/div/div[3]/div[1]/form/p[4]/input')
        submit.click()

    time.sleep(5)

except Exception as e:
    print(e)
finally:
    bro.close()

 

selenium爬取京东商品信息

scrapy介绍安装

爬虫模块:requests   bs4  selenium

爬虫框架---》不是模块---》类似于django---》爬虫界的django(跟djagno非常像)

安装:pip3 install scrapy

mac,linux 非常好装

win:看人品:因为twisted装不上

如果装不上的操作

1、pip3 install wheel #安装后,便支持通过wheel文件安装软件,wheel文件官网:https://www.lfd.uci.edu/~gohlke/pythonlibs

2、pip3 install lxml

3、pip3 install pyopenssl

4、下载并安装pywin32:https://sourceforge.net/projects/pywin32/files/pywin32/

5、下载twisted的wheel文件:http://www.lfd.uci.edu/~gohlke/pythonlibs/#twisted

6、执行pip3 install 下载目录\Twisted-17.9.0-cp36-cp36m-win_amd64.whl

7、pip3 install scrapy

装完后scripts文件夹下就会有scrapy可执行文件---》类似于(django-admin.exe)

创建项目,创建爬虫都用它

 

介绍

Scrapy一个开源和协作的框架,其最初是为了页面抓取 (更确切来说, 网络抓取 )所设计的,使用它可以以快速、简单、可扩展的方式从网站中提取所需的数据。但目前Scrapy的用途十分广泛,可用于如数据挖掘、监测和自动化测试等领域,也可以应用在获取API所返回的数据或者通用的网络爬虫。

Scrapy 是基于twisted框架开发而来,twisted是一个流行的事件驱动的python网络框架。因此Scrapy使用了一种非阻塞(又名异步)的代码来实现并发。整体架构大致如下:

架构:

1、爬虫(SPIDERS)

SPIDERS是开发人员自定义的类,用来解析responses,并提取items,或者发送新的请求

开发人员,主要在这写代码:设置爬取的地址,解析爬取完成的数据,继续爬取或者储存数据

2、引擎(EGINE)

引擎负责控制系统所有组件之间的数据流,并再某些动作发生时触发事件

3、调度器(SCHEDULER)

用来接收引擎发来的请求,压入队列中,并再引擎再次请求的时候返回,可以想象城一个URL的优先级队列,有它来决定下一次要抓取的网址是什么,同事去除重复的网址

4、下载器(DOWLOADER)

用于下载网页内容,并将网页内容返回给EGINE,下载器是建立在twisted这个高效的异步模型上的

5、项目管道(ITEM PIPLINES)

在items被提取后负责处理他们,主要包括清理、验证、持久化(比如存到数据库)等操作

6、下载器中间件(Downloader Middlewares)

位于Scrapy引擎和下载器之间,主要用来处理从EGINE传到DOWLOADER的请求request,已经从DOWNLOADER传到EGINE的响应response,你可用该中间件做以下几件事

7、爬虫中间件(Spider Middlewares)

位于EGINE和SPIDERS之间,主要工作是处理SPIDERS的输入(即responses)和输出(即requests)

 

scrapy目录结构

https://www.cnblogs.com/robots.txt 爬虫协议

 创建scrapy项目

    在cmd中创建:scrapy startproject scrapy_demo

 使用pycharm打开

 创建爬虫---》可以创建多个爬虫

    scrapy genspider 爬虫名 爬虫地址  # django创建app

    scrapy genspider cnblogs www.cnblogs.com  # 创建了爬取cnblogs的爬虫

 运行爬虫:默认直接爬取www.cnblogs.com---》后续需要写代码实现  

    scrapy crawl 爬虫名字
    scrapy crawl cnblogs

目录结构

scrapy_demo #项目名
  scrapy_demo #包
    __init__.py
    spiders #包 ,所有爬虫文件,放在这里
      __init__.py
      cnblogs.py
    items.py # 一个个类,等同于djagno的models
    pipelines.py # 写如何存储,存到拿
    settings.py# 配置文件
    middlewares.py # 中间件:两种

  scrapy.cfg # 上线用的

 

 

标签:img,self,爬虫,scrapy,params,div
From: https://www.cnblogs.com/YeeQX/p/17817824.html

相关文章

  • 爬虫常用写法和用法
    1、查找所有:结果=re.findall(正则,字符串)=>返回列表,用法:r""专业写正则的。没有转义的烦恼,result=re.findall(r"\d+","我有1000万,不给你花,我有1块我给你")2、结果=re.finditer(正则,字符串)=>返回迭代器(需要for循环),result=re.finditer(r"\d+","我有1000万,不......
  • python爬虫怎么翻页 ?
    首先,你需要安装相关的库。在你的命令行窗口中,输入以下命令来安装所需的库:pipinstallrequestsbeautifulsoup4然后,你可以使用以下代码来爬取网页内容并翻页:packagemainimport("fmt""net/http""io/ioutil""encoding/gob""log")funcmain(){......
  • 【python爬虫】80页md笔记0基础到scrapy项目高手,第(4)篇:requests和网络数据获取进阶
    本阶段主要学习requests这个http模块,该模块主要用于发送请求响应,该模块有很多的替代模块,比如说urllib模块,但是在工作中用的最多的还是requests模块,requests的代码简洁易懂,相对于臃肿的urllib模块,使用requests编写的爬虫代码将会更少,而且实现某一功能将会简单。因此建议大家掌握该......
  • 爬虫三
    搜索文档树1、find_all:找所有 列表2、find 找一个Tag类的对象find和find_all五种过滤器(字符串、正则表达式、列表、True、方法):字符串可以按标签名,可以按属性,可以按文本内容无论按标签名,按属性,按文本内容都是按字符串形式查找: p=soup.find('p')找到类名叫story......
  • django+爬虫+钉钉机器人
    Views类urls类Html结果......
  • 利用Ruby网络爬虫库采集文库
    今天我们安装一个Ruby的网络爬虫库叫做Nokogiri,它可以帮助我们解析网页的HTML代码,提取出我们需要的信息。我们可以在终端中使用geminstallnokogiri来进行安装。其次,我们需要使用open-uri库来打开网页,然后使用Nokogiri库来解析HTML代码。以下是具体的代码:```rubyrequ......
  • 爬虫之抓取js生成的数据
    有很多页面,当我们用request发送请求,返回的内容里面并没有页面上显示的数据,主要有两种情况,一是通过ajax异步发送请求,得到响应把数据放入页面中,对于这种情况,我们可以查看关于ajax的请求,然后分析ajax请求路径和响应,拿到想要的数据;另外一种就是js动态加载得到的数据,然后放入页面中。这......
  • 用Rust和Scraper库编写图像爬虫的建议
    本文提供一些有关如何使用Rust和Scraper库编写图像爬虫的一般建议:1、首先,你需要安装Rust和Scraper库。你可以通过Rustup或Cargo来安装Rust,然后使用Cargo来安装Scraper库。2、然后,你可以使用Scraper库的Crawler类来创建一个新的爬虫实例。3、接下来,你可以使用start方法来启动爬虫并......
  • requests库编写的爬虫程序没有那么难!
    下文是用requests库编写的爬虫程序,用于爬取toutiao上的图片。程序使用了代理服务器,代理服务器的地址为duoip,端口号为8000。importrequestsfrombs4importBeautifulSoup#设置代理服务器proxy_host='duoip'proxy_port=8000proxy={'http':'http://'+proxy_host+'......
  • swift语言用哪种库适合做爬虫?
    因为Swift语言并没有在语言层面上支持正则表达式,这对于爬虫来说是一个很大的缺陷。不过,Swift语言可以通过调用其他语言的库来实现爬虫功能,比如可以使用Python的BeautifulSoup库或者JavaScript的Cheerio库来解析HTML页面。但是相比于Python和JavaScript等专门用于爬虫的语言,Swift语......