首页 > 编程语言 >[Python数据采集]Playwright爬虫数据采集代码示例!!值得深入学习代码

[Python数据采集]Playwright爬虫数据采集代码示例!!值得深入学习代码

时间:2024-09-14 16:50:44浏览次数:3  
标签:await 示例 url 代码 random 代理 采集 proxy image

【Playwright爬虫数据采集代码示例!!值得深入学习代码】

为了提高反爬虫的稳定性,代理池和模拟真实用户行为是常见的优化手段。以下我将给出代理池的实现方式,并结合模拟真实用户行为的代码示例。

1. 代理池实现

通过代理池,可以定期切换IP,避免因同一个IP频繁请求而被封锁。代理池可以是你自己搭建的代理列表,也可以使用第三方的付费代理服务。这里通过 asyncio 实现代理池轮换,并在每次请求时使用不同的代理IP。

2. 模拟真实用户行为

模拟真实用户操作,包括:

  • 更换 User-Agent:每次请求时使用不同的 User-Agent 来模拟不同设备和浏览器。
  • 设置浏览器的 viewport:设置不同的浏览器视口大小,避免所有请求都是相同的屏幕尺寸。
  • 使用 headless=False:使用可见浏览器,以模仿真实用户的行为(在某些情况下依然启用无头模式)。

代码实现:


import asyncio
import random
from playwright.async_api import async_playwright
import aiohttp

# 代理池 (可自定义添加更多代理)
proxy_pool = [
    'http://proxy1.example.com:8080',
    'http://proxy2.example.com:8080',
    'http://proxy3.example.com:8080'
]

# 随机选择代理
def get_random_proxy():
    return random.choice(proxy_pool)

# User-Agent 列表 (模拟不同的设备/浏览器)
user_agents = [
    'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/85.0.4183.102 Safari/537.36',
    'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/85.0.4183.121 Safari/537.36',
    'Mozilla/5.0 (iPhone; CPU iPhone OS 13_6_1 like Mac OS X) AppleWebKit/605.1.15 (KHTML, like Gecko) Version/13.1.2 Mobile/15E148 Safari/604.1',
    'Mozilla/5.0 (Linux; Android 10; SM-G975F) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/84.0.4147.125 Mobile Safari/537.36'
]

# 随机选择 User-Agent
def get_random_user_agent():
    return random.choice(user_agents)

# 模拟用户行为:随机滚动页面,点击某些元素
async def simulate_human_behavior(page):
    await asyncio.sleep(random.uniform(1, 3))  # 模拟随机的延迟
    await page.mouse.wheel(0, random.randint(300, 1000))  # 模拟滚动
    await asyncio.sleep(random.uniform(1, 2))  # 再次延迟
    # 可以添加其他的操作,例如点击某个随机元素

# 异步下载图片
async def download_image(image_url, reg_number):
    if image_url:
        img_name = f"{reg_number}.jpg"
        async with aiohttp.ClientSession() as session:
            async with session.get(image_url) as response:
                if response.status == 200:
                    content = await response.read()
                    with open(f'images/{img_name}', 'wb') as f:
                        f.write(content)

# 异步抓取图片 URL
async def fetch_image_url(browser, reg_number, proxy=None):
    #示例网址
    url = f'https://example.com/channel/search#/search?q={{"keyword":"{reg_number}"}}'
    
    # 启动浏览器页面并配置代理和 User-Agent
    context = await browser.new_context(
        viewport={"width": random.randint(1024, 1920), "height": random.randint(768, 1080)},
        user_agent=get_random_user_agent()
    )

    if proxy:
        context = await browser.new_context(
            proxy={"server": proxy},
            user_agent=get_random_user_agent(),
            viewport={"width": random.randint(1024, 1920), "height": random.randint(768, 1080)}
        )

    page = await context.new_page()

    try:
        # 模拟用户行为
        await page.goto(url)
        await simulate_human_behavior(page)

        # 执行搜索操作
        await page.click("//button[text()='搜索']")
        
        # 等待图片加载完成
        await page.wait_for_selector('div.trademark-img-big img', timeout=60000)
        image_url = await page.locator('div.trademark-img-big img').get_attribute('src')

        return image_url
    except Exception as e:
        print(f"Error fetching image for {reg_number}: {e}")
        return None
    finally:
        await page.close()

# 主函数
async def main():
    async with async_playwright() as p:
        browser = await p.chromium.launch(headless=False)  # 模拟真实用户行为,使用非无头模式
        registration_numbers = ["123456789", "987654321", "456789123"]  # 示例注册号
        
        tasks = []
        for reg_number in registration_numbers:
            proxy = get_random_proxy()  # 从代理池中随机获取代理
            task = fetch_image_url(browser, reg_number, proxy=proxy)
            tasks.append(task)

        # 执行所有任务并收集结果
        results = await asyncio.gather(*tasks)

        for reg_number, image_url in zip(registration_numbers, results):
            if image_url:
                await download_image(image_url, reg_number)

        await browser.close()

if __name__ == "__main__":
    asyncio.run(main())

关键点解释:

  1. 代理池 proxy_pool:通过 get_random_proxy() 随机选择代理。此代理池可以包含多个代理服务器的地址,确保每次请求时使用不同的IP地址,减少反爬的风险。

  2. 随机 User-Agent:通过 get_random_user_agent() 函数,随机选择不同的 User-Agent,模拟不同的设备和浏览器请求,避免所有请求都来自同一个浏览器和设备标识。

  3. 页面模拟真实用户行为simulate_human_behavior(page) 模拟了用户滚动页面、延迟等行为,使爬虫行为更像真实用户。可以根据需求进一步扩展,加入点击、输入等行为。

  4. 异步图片下载:在 download_image() 函数中,通过 aiohttp 异步下载图片到本地。

  5. 代理设置:在创建浏览器上下文时(browser.new_context()),通过 proxy={"server": proxy} 设置代理服务器。每个上下文使用不同的代理和 User-Agent,模拟多样化的请求来源。

  6. 浏览器视口大小:使用随机的浏览器窗口大小(viewport),增加请求的多样性。

代理池改进建议:

  • 可以通过第三方代理提供商(如 Bright DataOxylabsSmartProxy)获取大量高匿名代理,保证 IP 地址质量和访问速度。
  • 代理池的管理可以进一步优化,例如动态添加和移除不可用的代理,或者使用带有验证的代理(带用户名和密码的代理)。

模拟行为改进建议:

  • 增加更多的用户操作,如随机点击页面中的链接、模拟表单输入等。
  • 利用 Playwrightmousekeyboard 功能模拟更多人类行为,如键盘输入。

标签:await,示例,url,代码,random,代理,采集,proxy,image
From: https://blog.csdn.net/weixin_45933029/article/details/142262258

相关文章

  • AI带货直播插件的五大基础功能和源代码!
    随着人工智能技术的飞速发展,AI带货直播插件已成为电商领域的重要工具,这类插件通过集成先进的人工智能技术,不仅提升了直播的效率和互动性,还大大增强了用户体验和转化率。一、AI带货直播插件的五大基础功能1、自动化内容生成:a、利用深度学习算法,自动生成直播内容,如文本、图像和视频。......
  • 智慧农业系统-精准农业农田信息采集系统
    橙蜂智能公司致力于提供先进的人工智能和物联网解决方案,帮助企业优化运营并实现技术潜能。公司主要服务包括AI数字人、AI翻译、埃域知识库、大模型服务等。其核心价值观为创新、客户至上、质量、合作和可持续发展。橙蜂智农的智慧农业产品涵盖了多方面的功能,如智能化推荐、数......
  • 自尽氚气出题人+rui 之 氚荠甲苯二酸 代码
    运输计划显然我们可以处理出每个区间正方向和反方向走的代价,那么最后的问题可以转化为每个点选择\(0/1\)之一,要求区间的选择两两不冲突,在这个基础上最小化代价之和。则,可以参考\(2-SAT\)的思路,处理出每个点选择\(0/1\)两两的限制状况,不难发现这种限制应该是对称的,而且有一......
  • ubuntu下stlink烧录stm32代码
    ubuntu下stlink烧录stm32代码,记录备忘0、环境一、下载stlink驱动 二、编译  三、安装stlink驱动 四、验证安装成功 usb口接stlink后,查到设备五、烧录 六、其它  ......
  • 企业源代码怎么加密防泄密?2024十款好用的源代码加密软件
    在当今数字化和信息化的时代,企业的源代码通常承载了核心技术和商业机密,若被泄露或窃取,可能导致企业遭受不可估量的损失。为防止源代码泄密,企业需要采取多层次的安全措施,其中源代码加密是最关键的一环。1.安秉源代码加密安秉源代码加密软件是一款适用于Windows和Linux平台的......
  • 免费爬虫软件“HyperlinkCollector超链采集器v0.1”
    HyperlinkCollector超链采集器单机版v0.1软件采用python的pyside2和selenium开发,暂时只支持window环境,抓取方式支持普通程序抓取和selenium模拟浏览器抓取。软件遵守robots协议。首先下载后解压缩,然后运行app目录下的HyperlinkCollector.exe运行后,我们先创建一个采集项目。......
  • 采集电商数据的经典方法!都是干货!
    在电商领域,数据采集是非常重要的环节,可以帮助企业了解市场趋势、用户行为和竞争对手情况等。以下是一些电商数据采集的经典方法:一、网络爬虫网络爬虫是一种自动化程序,可以从网页上抓取数据。对于电商数据采集,可以使用爬虫程序抓取电商平台上的商品信息、价格、评价等数据。......
  • Linux内核开发环境-代码编译
    建议点击这里查看个人主页上的最新原文作者:陈孝松主页:chenxiaosong.com哔哩哔哩:陈孝松课程:chenxiaosong.com/courses博客:chenxiaosong.com/blog贡献:chenxiaosong.com/contributions邮箱:[email protected]交流群:544216206,点击查看群介绍点......
  • 爬虫代码 python
       importrequestsimporturllibimportosimporttimeprint('欢迎使用Aking爬虫图片下载器!')time.sleep(0.5)print('欢迎使用Aking爬虫图片下载器!!')time.sleep(0.5)print('欢迎使用Aking爬虫图片下载器!!!')time.sleep(0.5)print('准备就绪!')time.sle......
  • 微同城小程序源码系统帮你轻松本地生活服务平台 带完整的安装代码包以及搭建部署教程
    系统概述微同城小程序源码系统是一款专为打造本地化生活服务生态而设计的软件框架。它不仅拥有高度模块化的设计,还集成了丰富的功能组件,覆盖餐饮外卖、生鲜配送、家政服务、二手交易、房屋租赁等多个生活领域。通过这套源码系统,用户可以轻松实现平台的快速搭建与个性化定制,满......