首页 > 其他分享 >利用Selenium和PhantomJS绕过接口加密的技术探索与实践

利用Selenium和PhantomJS绕过接口加密的技术探索与实践

时间:2024-07-10 20:31:40浏览次数:8  
标签:webdriver 加密 PhantomJS Selenium get selenium import 浏览器 browser

selenium+phantomjs绕过接口加密

我们为什么需要selenium

之前我们讲解了 Ajax 的分析方法,利用 Ajax 接口我们可以非常方便地完成数据的爬取。只要我们能找到 Ajax 接口的规律,就可以通过某些参数构造出对应的的请求,数据自然就能被轻松爬取到。
但是,在很多情况下,Ajax 请求的接口通常会包含加密的参数,如 token、sign 等。
由于接口的请求加上了 token 参数,如果不深入分析并找到 token 的构造逻辑,我们是难以直接模拟这些 Ajax 请求的。

解决方法:

  1. 一种是深挖其中的逻辑,把其中 token 的构造逻辑完全找出来,再用 Python 复现,构造 Ajax 请求;
  2. 另外一种方法就是直接通过模拟浏览器的方式,绕过这个过程。因为在浏览器里面我们是可以看到这个数据的,如果能直接把看到的数据爬取下来,当然也就能获取对应的信息了。

由于第 1 种方法难度较高,在这里我们就先介绍第 2 种方法,模拟浏览器爬取。

selenium是什么

Selenium 是一个自动化测试工具,利用它可以驱动浏览器执行特定的动作,如点击、下拉等操作,同时还可以获取浏览器当前呈现的页面源代码,做到可见即可爬。对于一些使用 JavaScript 动态渲染的页面来说,此种抓取方式非常有效。本课时就让我们来感受一下它的强大之处吧。

大家经常听说的是selenium加PhantomJS

selenium是操作浏览器的软件包,PhantomJS是特殊浏览器,不显示任何页面,被称为无头浏览器,这样可以运行的更快,但是该浏览器已经不再更新,属于半淘汰品了。因为谷歌59以上版本已经支持无头模式了

import time

from selenium import webdriver
from selenium.webdriver.chrome.options import Options
from selenium.webdriver.chrome.service import Service

options = webdriver.ChromeOptions()
# 设置无头模式
# options.add_argument('--headless')

# selenium新版本: 将谷歌驱动网址用service包裹一下
service = Service('D:\extention\spider\day4\chormedriver\chromedriver-win64\chromedriver.exe')
# 驱动
driver = webdriver.Chrome(service=service, options=options)
# 访问网址
driver.get('https://baidu.com')
# 等待30秒
time.sleep(30)

准备工作

以 Chrome 为例来讲解 Selenium 的用法。在开始之前,请确保已经正确安装好了 Chrome 浏览器并配置好了 ChromeDriver。另外,还需要正确安装好 Python 的 Selenium 库。

驱动下载地址: https://googlechromelabs.github.io/chrome-for-testing/#canary
安装selenium: pip install selenium

基本使用

import time

from selenium import webdriver
from selenium.webdriver.chrome.options import Options
from selenium.webdriver.chrome.service import Service
from selenium.webdriver.common.by import By
from selenium.webdriver.common.keys import Keys
from selenium.webdriver.support import expected_conditions as EC
from selenium.webdriver.support.wait import WebDriverWait

options = webdriver.ChromeOptions()
# 设置无头模式
# options.add_argument('--headless')

# selenium新版本: 将谷歌驱动网址用service包裹一下
service = Service('D:\extention\spider\day4\chormedriver\chromedriver-win64\chromedriver.exe')
# 驱动
browser = webdriver.Chrome(service=service, options=options)
try:
    # 访问网址
    browser.get('https://baidu.com')
    # 获取输入框
    input = browser.find_element('xpath', "//*[@id='kw']")
    # 输入python
    input.send_keys('python')
    # 点击确定
    input.send_keys(Keys.ENTER)
    # 智能等待
    wait = WebDriverWait(browser, 10)
    # 直到某个元素出现
    wait.until(EC.presence_of_element_located((By.XPATH, '//*[@id="content_left"]')))
    print(f"网页url: {browser.current_url}")
    print(f"cookies: {browser.get_cookies()}")
    print(f"网页源代码: {browser.page_source}")
finally:
    browser.close()

声明浏览器对象

Selenium 支持非常多的浏览器,如 Chrome、Firefox、Edge 等,还有 Android、BlackBerry 等手机端的浏览器。

此外,我们可以用如下方式进行初始化:

from selenium import webdriver
browser = webdriver.Chrome() 
browser = webdriver.Firefox() 
browser = webdriver.Edge() 
browser = webdriver.Safari()

这样就完成了浏览器对象的初始化并将其赋值为 browser 对象。接下来,我们要做的就是调用 browser 对象,让其执行各个动作以模拟浏览器操作。

访问页面

我们可以用 get 方法来请求网页,只需要把参数传入链接 URL 即可。比如,这里用 get 方法访问淘宝,然后打印出源代码,代码如下

from selenium import webdriver
browser = webdriver.Chrome() 
browser.get('https://www.taobao.com') 
print(browser.page_source) 
browser.close()

运行后会弹出 Chrome 浏览器并且自动访问淘宝,然后控制台会输出淘宝页面的源代码,随后浏览器关闭。

通过这几行简单的代码,我们就可以驱动浏览器并获取网页源码,非常便捷。

查找节点

单个节点

Selenium 提供了 find_element 这个通用方法,它需要传入两个参数:查找方式 By 和值。

By.ID 
By.XPATH
By.TAG_NAME: 标签名称
By.CLASS_NAME
By.CSS_SELECTOR: CSS选择器
By.LINK_TEXT: 精确查询,a标签中文字
By.PARTIAL_LINK_TEXT: 模糊查询,a标签中文字

多个节点

Selenium 提供了 find_elements这个通用方法,它需要传入两个参数:查找方式 By 和值。

返回:一个包含 多个WebElement对象的 列表

节点交互

Selenium 可以驱动浏览器来执行一些操作,或者说可以让浏览器模拟执行一些动作。比较常见的用法有:输入文字时用 send_keys 方法,清空文字时用 clear 方法,点击按钮时用 click 方法。

更多的操作可以参见官方文档的交互动作介绍 :http://selenium-python.readthedocs.io/api.html#module-selenium.webdriver.remote.webelement。

动作链

在上面的实例中,一些交互动作都是针对某个节点执行的。比如,对于输入框,我们调用它的输入文字和清空文字方法;对于按钮,我们调用它的点击方法。其实,还有另外一些操作,它们没有特定的执行对象,比如鼠标拖拽、键盘按键等,这些动作用另一种方式来执行,那就是动作链。

比如,现在我要实现一个节点的拖拽操作,将某个节点从一处拖拽到另外一处,可以这样实现:

from selenium import webdriver 
from selenium.webdriver import ActionChains 
browser = webdriver.Chrome() 
url = 'http://www.runoob.com/try/try.php?filename=jqueryui-api-droppable' 
browser.get(url) 
browser.switch_to.frame('iframeResult') 
source = browser.find_element_by_css_selector('#draggable') 
target = browser.find_element_by_css_selector('#droppable') 
actions = ActionChains(browser) 
actions.drag_and_drop(source, target) 
actions.perform()

执行JavaScript

Selenium API 并没有提供实现某些操作的方法,比如,下拉进度条。但它可以直接模拟运行 JavaScript,此时使用 execute_script 方法即可实现,代码如下:

from selenium import webdriver 
browser = webdriver.Chrome() 
browser.get('https://www.zhihu.com/explore') 
browser.execute_script('window.scrollTo(0, document.body.scrollHeight)') 
browser.execute_script('alert("To Bottom")')

切换 Frame

我们知道网页中有一种节点叫作 iframe,也就是子 Frame,相当于页面的子页面,它的结构和外部网页的结构完全一致。Selenium 打开页面后,默认是在父级 Frame 里面操作,而此时如果页面中还有子 Frame,Selenium 是不能获取到子 Frame 里面的节点的。这时就需要使用 switch_to.frame 方法来切换 Frame。示例如下:

登录qq空间小案例:

from selenium import webdriver
from selenium.webdriver.common.by import By
from selenium.webdriver.common.keys import Keys
from selenium.webdriver.support.wait import WebDriverWait
from selenium.webdriver.support import expected_conditions as EC
from multiprocessing import Pool

dr = webdriver.Chrome(r'D:\an\Lib\site-packages\chromedriver.exe')
dr.get('https://qzone.qq.com/')
dr.switch_to.frame('login_frame')
dr.find_element(By.PARTIAL_LINK_TEXT,'密码登录').click()
dr.find_element(By.ID,'u').send_keys('80713767')
dr.find_element(By.ID,'p').send_keys('1234567')
dr.find_element(By.ID,'login_button').click()


前进后退

平常我们使用浏览器时都有前进和后退功能,Selenium 也可以完成这个操作,它使用 back 方法后退,使用 forward 方法前进。示例如下:

import time 
from selenium import webdriver 
browser = webdriver.Chrome() 
browser.get('https://www.baidu.com/') 
browser.get('https://www.taobao.com/') 
browser.get('https://www.python.org/') 
browser.back() 
time.sleep(1) 
browser.forward() 
browser.close()

Cookies

使用 Selenium,还可以方便地对 Cookies 进行操作,例如获取、添加、删除 Cookies 等。示例如下:

from selenium import webdriver 
browser = webdriver.Chrome() 
browser.get('https://www.zhihu.com/explore') 
print(browser.get_cookies()) 
browser.add_cookie({'name': 'name', 'domain': 'www.zhihu.com', 'value': 'germey'}) 
print(browser.get_cookies()) 
browser.delete_all_cookies() 
print(browser.get_cookies())

选项卡管理

在访问网页的时候,我们通常会开启多个选项卡。在 Selenium 中,我们也可以对选项卡进行操作。示例如下:

import time 
from selenium import webdriver 
browser = webdriver.Chrome() 
browser.get('https://www.baidu.com') 
browser.execute_script('window.open()') 
print(browser.window_handles) 
browser.switch_to.window(browser.window_handles[1])
browser.get('https://www.taobao.com') 
time.sleep(1) 
browser.switch_to.window(browser.window_handles[0]) 
browser.get('https://python.org')

异常处理

在使用 Selenium 的过程中,难免会遇到一些异常,例如超时、节点未找到等错误,一旦出现此类错误,程序便不会继续运行了。这里我们可以使用 try except 语句来捕获各种异常。

示例如下:

from selenium import webdriver 
from selenium.common.exceptions import TimeoutException, 
NoSuchElementException 
browser = webdriver.Chrome()
try:
    browser.get('https://www.baidu.com') 
except TimeoutException:
    print('Time Out') 
try:
    browser.find_element_by_id('hello') 
except NoSuchElementException:
    print('No Element') 
finally:
    browser.close()

案例:振坤行商品信息

振坤行分析:

  • 不登陆,只允许搜索一次,搜索第二次就会封禁IP,此IP以后每次搜索则会跳转登陆页面
  • 登录必须企业认证

以下是假如不登陆可以搜索无限次的情况下,进行爬取商品信息的代码(学习用法即可)

下面代码为获取振坤行商品信息

import time

from selenium import webdriver
from selenium.webdriver.chrome.options import Options
from selenium.webdriver.chrome.service import Service
from selenium.webdriver.common.by import By
from selenium.webdriver.common.keys import Keys
from selenium.webdriver.support import expected_conditions as EC
from selenium.webdriver.support.wait import WebDriverWait
from multiprocessing import Pool


def get_data(key):
    global browser
    try:
        options = webdriver.ChromeOptions()
        # selenium新版本: 将谷歌驱动网址用service包裹一下
        service = Service('D:\extention\spider\day4\chormedriver\chromedriver-win64\chromedriver.exe')
        # 句柄
        browser = webdriver.Chrome(service=service, options=options)

        # 访问网址
        browser.get('https://www.zkh.com/')
        # 最大化浏览器窗口
        browser.maximize_window()
        # 智能等待
        wait = WebDriverWait(browser, 10)
        # 直到搜索框出现
        wait.until(EC.presence_of_element_located((By.CLASS_NAME, 'form-key')))

        # 输入关键词key
        browser.find_element(By.CLASS_NAME, 'form-key').send_keys(key)
        # 输入回车
        browser.find_element(By.CLASS_NAME, 'form-key').send_keys(Keys.ENTER)
        # 爬取商品价格信息
        while True:
            page = 1
            # 等待搜索结果出来
            time.sleep(0.5)
            # 智能等待商品元素出现
            # 完整性和唯一性: 类名应该是目标元素的完整类名,并且最好是唯一的。
            # WebDriverWait(browser, 10).until(EC.presence_of_all_elements_located((By.XPATH, "//div[@class='total-main-sku-wapper']/div[@class='goods-list-outer']/div[@class='goods-item-box-new clearfix flow-side-goods-item-inner']/div[@class='goods-item-wrap-new clearfix common-item-wrap']")))
            # 右侧滚动条拉到最后
            for i in range(6):
                browser.execute_script('window.scrollTo(0, document.body.scrollHeight)')
                # 等待浏览器拉到底部
                time.sleep(1)
                print(1111)
            # 智能等待最后一个商品元素出现
            WebDriverWait(browser, 10).until(EC.presence_of_element_located(
                (By.XPATH, "//div[@class='goods-item-wrap-new clearfix common-item-wrap'][50]")))

            print(f"-------------------当前{key},第{page}页")
            divs = browser.find_elements(By.XPATH, "//div[@class='goods-item-wrap-new clearfix common-item-wrap']")
            for div in divs:
                integer = div.find_element(By.XPATH, "//span[@class='integer xh-highlight']").text
                decimal = div.find_element(By.XPATH, "//span[@class='decimal']").text
                price = integer + decimal
                print(price)

            # 获取最大页
            max_page = browser.find_element(By.XPATH, "//button[@class='numberbtn'][6]").text
            if page == max_page:
                break
            # 点击下一页
            page += 1
            browser.find_element(By.XPATH, "//button[@class='nextbtn']").click()
    finally:
        browser.close()


if __name__ == '__main__':
    get_data("口罩")

多进程优化

if __name__ == '__main__':
    # get_data("口罩")
    pool = Pool(3)
    try:
        for kw in ['雨衣', '螺丝', '口罩']:
            pool.apply_async(get_data, args=(i,))
    except KeyboardInterrupt:
        pool.terminate()
    finally:
        pool.close()
        pool.join()

如何加代理?

首先你得有代理,可以买小象代理或者芝麻代理

proxy = 'http://{}'.format('183.165.224.223:4231')
proxies = {
            'http': proxy,
            'https': proxy,
        }
        
option = webdriver.ChromeOptions()
option.add_argument('--proxy-server={}'.format(proxy))
dr = webdriver.Chrome(r'D:\an\Lib\site-packages\chromedriver.exe',options=option)
dr.get('https://2023.ip138.com/')

如何规避监测风险?

网站会根据环境变量检查你是否为selenium,所以我们要伪装环境变量,消除指纹

stealth.min.js就是一系列修改环境变量的方法

with open('stealth.min.js') as f:
    js = f.read()
driver.execute_cdp_cmd("Page.addScriptToEvaluateOnNewDocument", {
    "source": js
})

这里提供一个检测浏览器环境的网站给你参考

https://bot.sannysoft.com/

stealth.min.js安装方法:

  1. 安装node.js环境

  2. 运行命令即可获得此文件

    npx extract-stealth-evasions
    

selenium里的xpath和正常xpath区别

  • 正常:
    • 获得文字信息: "//a/text()"
    • 获取属性: "//a/@href"
  • selenium
    • 获得文字信息: "//a".text
    • 获取属性: "a".get_attribute('href')

弊端

  • 登录需要滑块验证,selenium无法爬取
  • 登录需要手机号验证码,selenium无法爬取

适用场景

  • 不登陆的数据爬取
  • 根据用户名和密码进行登录的网站的 数据爬取

更多精致内容

标签:webdriver,加密,PhantomJS,Selenium,get,selenium,import,浏览器,browser
From: https://www.cnblogs.com/CodeRealm/p/18294939

相关文章

  • uniapp-Java使用AES加密解密
    操作前uniapp需要安装  npminstallcrypto-js 在需要使用的界面加入 importCryptoJSfrom'crypto-js' java端<!--springsecurity安全认证--><dependency><groupId>org.springframework.boot</groupId>......
  • 文件加密软件谁好用丨2024文件加密软件TOP6推荐
    在数字化时代,数据安全已成为企业和个人不可忽视的重要议题。随着数据泄露事件频发,文件加密软件成为了保护敏感信息的首选工具。本文将为您推荐2024年度最值得信赖的六大文件加密软件,帮助您选择最适合自己需求的加密工具。1.域智盾软件以其强大的文档透明加密和权限管控功......
  • DPAPI(Data Protection API)是Windows操作系统提供的一种加密API,用于帮助开发者保护用户
    DPAPI(DataProtectionAPI)在其设计上是相对安全的,但在使用过程中仍然可能存在一些潜在的漏洞或安全考虑:物理访问:如果攻击者能够物理访问受保护数据的存储设备(如硬盘或内存),并且拥有系统管理员权限,他们可能能够通过直接访问加密密钥或拦截解密过程来获取敏感信息。恶意软件......
  • java+selenium+autoIt 实现下载(打印)功能
    java+selenium+autoIt实现下载(打印)功能selenium是一个开源的自动化测试框架,它可以模拟用户对浏览器的操作,进行自动化的测试。但是,它不仅仅只能用来做测试。AutoIt是一个使用类似BASIC脚本语言的免费软件,它设计用于WindowsGUI(图形用户界面)中进行自动化操作。它利用模拟键盘......
  • excel实现对同一个工作簿下不同工作表分别加密,这种能实现吗?
    大家好,我是Python进阶者。一、前言前几天在Python最强王者交流群【哎呦喂 是豆子~】问了一个Python自动化办公的问题,问题如下:大佬们请问下这种能实现吗?excel实现对同一个工作簿下不同工作表分别加密。二、实现过程这里【瑜亮老师】给了一个思路:是加密,还是保护?【哎呦喂 ......
  • SQL Server2012数据库TDE加密
    SQLServer数据库TDE加密1.1案例环境介绍完成本节数据TDE加密的演示,需要准备两台虚拟机环境,一台模拟生产数据库,一台模拟迁移还原的数据库环境。1.1.1案例环境配置完成本章案例数据备份部分的学习,需要准备3个节点的环境。具体环境配置要求,见表6-3。表6-3本案例环境配置序......
  • WebUi爬虫自动化测试 Selenium4.X+Java教程
    为什么要学习Selenium自动化测试Selenium是最受欢迎的Web应用程序自动化测试工具之一。通过学习Selenium,可以编写自动化测试脚本,用于自动执行各种任务,例如验证功能、测试用户界面、模拟用户交互大大提高测试效率,减少手动测试的工作量。网络爬虫Selenium可以用......
  • 保姆级阿里云接入http接口加密数据教程,一看就会!大厂经验分享,接口数据落表
    前言:有关接口数据的接入,源端会给予我们一份接口说明文件,接着我们需依据对方提供的接口文档进行代码编写,以实现数据落表。接入步骤大致可分为以下几步:1.依据对方提供的接口文档,明确接口地址、请求方式、传参信息以及参数格式等。2.借助编写代码,获取接口数据内容。3.按照......
  • 对称加密、非对称加密、详解 RSA 非对称加密算法
    文章目录对称加密和非对称加密对称加密非对称加密RSA非对称加密算法RSA算法详细解释RSA算法的使用在其他方面的应用对称加密和非对称加密对称加密和非对称加密是密码学中两种基本的加密技术,它们在加密和解密过程中使用密钥的方式不同,各自有着独特的特性和适用场......
  • 透明加密是什么丨企业用透明加密软件分享
    一、为什么需要透明加密技术在当今数字化的时代,数据已成为企业最宝贵的资产之一。然而,数据泄露的风险也日益增加,这使得透明加密技术成为保护企业数据安全的关键手段。首先,用户无感知的特性确保了员工在日常工作中无需为加密和解密操作分心,从而保持工作效率。例如,员工在编辑文......