首页 > 编程语言 >Python爬虫入门01:在Chrome浏览器轻松抓包

Python爬虫入门01:在Chrome浏览器轻松抓包

时间:2024-07-28 18:26:10浏览次数:18  
标签:01 HTTP 请求 Python URL 爬虫 Chrome 服务器 rsv


文章目录

爬虫基本概念

爬虫定义

爬虫(Web Crawler 或 Spider)是一种自动浏览互联网的程序,它按照一定的算法顺序访问网页,并从中提取信息。爬虫的基本任务是抓取网页内容,这些内容可以是文本、图片、视频等。爬虫在互联网上的应用非常广泛,包括搜索引擎的数据收集、市场研究、数据挖掘等。
在这里插入图片描述

爬虫工作原理

  1. 起始URL:爬虫从一组初始URL开始,这些URL可以是手动指定的种子URL,也可以是自动生成的。
  2. 下载网页:爬虫访问URL,下载对应的网页内容。
  3. 解析内容:爬虫解析下载的网页,提取有用的信息,如文本、链接等。
  4. 提取链接:从解析的内容中提取新的URL,这些URL将作为爬虫下一步访问的对象。
  5. 重复过程:对提取的链接重复下载和解析的过程,直到满足特定条件(如爬取的页面数量、时间限制等)。

爬虫流程

  1. 目标确定:明确爬虫需要抓取的数据类型和范围。
  2. 网站分析:分析目标网站的结构,了解网页的布局和数据的组织方式。
  3. 请求发起:根据分析结果,构造合适的HTTP请求,包括GET或POST请求,以及必要的请求头信息。
  4. 数据获取:服务器响应请求后,爬虫接收数据,这些数据可能是HTML、JSON、XML等格式。
  5. 数据解析:使用正则表达式、BeautifulSoup、lxml等工具,从获取的数据中提取有用的信息。
  6. 数据存储:将解析出的数据存储到数据库或文件中,以便进一步的分析和使用。
  7. 遵守规则:在爬虫的设计和运行过程中,遵守网站的robots.txt协议,尊重版权和隐私政策。

在这里插入图片描述

爬虫类型

  • 通用爬虫:广泛用于搜索引擎,如Google、Baidu,它们抓取互联网上大量的网页。
  • 聚焦爬虫:专注于特定主题或领域的内容,只抓取与特定主题相关的网页。
  • 增量式网络爬虫:增量爬虫,主要是指我们在周期性的爬取一些网站的时候,只是仅仅爬取网站变更的内容,而不是把所有网站数据重新爬取一遍。这样,可以有效的降低运维成本。
  • 深层网络爬虫:深层网络爬虫,主要是指我们不能直接爬取的一些网站。比如,这些网站需要用户登陆,或者填写一些特定的表单,才能继续深入爬取信息。

爬虫面临的挑战

  • 动态内容:现代网页大量使用JavaScript动态生成内容,爬虫需要处理这些动态加载的数据。
  • 反爬机制:许多网站有反爬虫策略,如IP封锁、请求频率限制等。
  • 数据质量:从网页上抓取的数据可能包含噪声,需要进一步清洗和验证。

使用Chrome浏览器抓包

  • 推荐使用Chrome浏览器,避免使用可能存在后门的国产浏览器。
  • 打开Chrome,输入网址(如www.baidu.com),按下F12打开开发者工具。也有些电脑单点f12不管用,那就需要用上Fn+F12的操作了,然后可以看到弹出了一个像下面这样子的界面,那就是了。
    在这里插入图片描述

查看网页HTML代码

  • 在Element标签下查看和修改网页的HTML代码。这个玩意正是我们想要的,可以看到,Element 标签下对应的 HTML 代码,其实就是这个网页的代码,我们可以在这里除了看看它的代码之外,我们还可以修改一些东西,比如我把这个按钮改成世界和平。首先点击左下角的小按钮,然后把我们的鼠标移动到百度一下那里,哎再右键选择编辑属性。ok,我们也算掌握了百度前端的人了(开玩笑)。
  • 在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述

查看HTTP请求

  • 点击Network标签,刷新页面查看HTTP请求。这里咱是中文的,就点击长得像wifi那个符号就好了。

  • 在这里插入图片描述

  • 常见请求方式:GET, POST, PUT, DELETE, HEAD, OPTIONS, TRACE。

  • GET请求:参数在URL中,如https://www.baidu.com/s?wd=查询内容

  • POST请求:参数在请求体中,常用于信息提交如注册、登录。

HTTP请求是客户端(如浏览器)与服务器之间通信的基础。在进行网页爬取时,了解和分析HTTP请求是至关重要的。以下是对HTTP请求的进一步扩展:

  • HTTP请求方法:不同的请求方法决定了客户端与服务器交互的方式。

    • GET:请求指定的资源。参数附加在URL后面,适用于请求数据且不引起服务器状态变化的场景。
    • POST:向指定资源提交数据进行处理请求(例如提交表单或者上传文件)。参数包含在请求体中,适用于引起服务器状态变化的操作。
    • PUT:更新服务器上的现有资源或新建资源。
    • DELETE:删除指定的资源。
    • HEAD:请求获取与GET请求相同的响应,但没有响应体,用于获取响应头信息。
    • OPTIONS:请求查询服务器支持的通信协议或请求方法。
    • TRACE:请求服务器回送收到的请求信息,用于测试或诊断。
  • 查看HTTP请求的步骤

    1. 打开浏览器的开发者工具(通常通过按F12或右键点击页面元素选择“检查”)。
    2. 点击“Network”(网络)标签。
    3. 刷新页面,观察和分析发出的所有请求。
    4. 点击具体的请求,查看详细信息,包括请求头、请求体、响应头和响应体。
  • GET请求详解

    • GET请求的参数通过URL传递,格式通常为key1=value1&key2=value2
    • 例如,在百度搜索框输入“查询内容”,浏览器会构造如下GET请求:
      https://www.baidu.com/s?wd=查询内容&其它参数
      
    • GET请求的URL长度有限制,且参数直接暴露在URL中,不适合传输敏感信息。
    • 我们来具体尝试一下,比如输入爬虫,我们能看到很多的请求,我峨嵋你再随便点一个看看,在这里插入图片描述
      在这里插入图片描述
      在这里插入图片描述
      这里我们会发现这个get的用法其实就相当于我们在 Python 写 GET 请求的时候
      直接在 URL 后面加个 ?然后添加参数值就好了,不信的话可以复制去试一下,弹出来的界面和在输入框输入“爬虫”是一样的。
https://www.baidu.com/s?ie=utf-8&csq=1&pstg=22&mod=2&isbd=1&cqid=8f6a4386003a1144&istc=1238&ver=0Q6tTQUEQuHajerqoqPYyO9Y2bJzZC7NC9m&chk=66a4eac6&isid=470ACB913FC52189&wd=%E7%88%AC%E8%99%AB&rsv_spt=1&rsv_iqid=0xf1e9644100cf032b&issp=1&f=8&rsv_bp=1&rsv_idx=2&ie=utf-8&tn=baiduhome_pg&rsv_enter=1&rsv_dl=ib&rsv_sug3=8&rsv_sug1=7&rsv_sug7=100&_ck=64387.0.-1.-1.-1.-1.-1&rsv_isid=60360_60468_60492_60500_60520&isctg=5&rsv_stat=-2&rsv_sug7=100
  • POST请求详解
    • POST请求的数据不在URL中,而是通过HTTP请求体发送。
    • 常用于表单提交,如注册、登录等,可以传输大量数据。
    • 例如,登录表单可能包含用户名和密码,POST请求的示例如下:
      POST /login HTTP/1.1
      Host: example.com
      Content-Type: application/x-www-form-urlencoded
      
      
      username=xiaoshuaib&password=加密后的密码
      
      
      
      当我们点击登录的时候,就开始将我们的账号密码请求给百度服务器,可以看到我们请求了 login 这个接口
      在这里插入图片描述

请求方法就是 POST

  • POST请求可以携带复杂的数据格式,如JSON或XML。

  • 请求头(Request Headers)

    • 包含了HTTP请求的元数据,如Accept(客户端可接受的数据类型)、Content-Type(发送的数据类型)、Cookie(会话信息)等。
  • 响应头(Response Headers)

    • 包含了服务器返回的元数据,如Content-Type(响应的数据类型)、Set-Cookie(设置客户端的cookie)等。
  • 响应体(Response Body)

    • 服务器返回的数据本身,可能是HTML页面、JSON对象、图片或视频等。

请求头(Request Header)

  • HTTP请求时定义的头部信息,如Accept、Host、cookie、User-Agent等。
  • 用于告诉服务器请求的上下文信息。
  • 我们在做 HTTP 请求的时候,除了提交一些参数之外,我们还有定义一些 HTTP 请求的头部信息,比如 Accept、Host、cookie、User-Agent等等,这些参数也是我们在做爬虫要用到,通过这些信息,欺骗服务器,告诉它我们是正规请求,比如,我们可以在代码里面设置 cookie 告诉服务器我们就是在这个浏览器请求的会话,User-Agent 告诉服务器我们是浏览器请求的在这里插入图片描述

服务器响应

  • 响应码:如200(成功请求)、404(未找到页面)、502(服务器错误)。
  • 响应头:告诉客户端数据展现形式、cookie设置等。
  • 响应体:服务器返回的数据,可能是HTML、JSON或二进制数据。
  • 当我们请求成功之后,服务器会给我们返回响应码之外,还有响应头,这个头主要是告诉我们数据以什么样的形式展现,告诉我们cookie的设置,还有一个,就是响应体了,说白了,就是服务器返回给我们的数据,我们点击 Response 就可以看到相关的数据了。
    在这里插入图片描述

抓包的意义

  • 抓包是理解浏览器与服务器交互的过程。
  • 通过抓包,可以了解请求方式、参数、请求头定义以及如何获取返回数据。也就是拿到这边响应的数据。
    在这里插入图片描述
    这样子我们就已经离实际爬虫又进一步啦。

标签:01,HTTP,请求,Python,URL,爬虫,Chrome,服务器,rsv
From: https://blog.csdn.net/wumingzei/article/details/140740354

相关文章

  • Python科研武器库 - 字符串操作 - 字符串分隔 split()、rsplit()
    使用场景:在科研中,数据样本的命名方式往往包含着对应的信息,例如,一张人脸图片34_anger_1.png,文件名中包含着该图片中主体在数据集中的ID、人脸表情种类、以及该图片是同类型第几张图片。使用python批量处理数据时,从文件名中获取对应信息也是很关键的一步,然后才能基于这些信息进......
  • Java-001
    Java入门IDEA优化idea插件翻译、阿里巴巴代码规范指导IDEAdebug使用Stepinto:单步执行(一行一行代码执行),如果遇到子函数,就会进入子函数,并且继续单步执行。就是每一行需要执行的代码都不跳过,一行一行进行。Stepover:在单步执行的时候,如果遇到子函数,并不会进入子函数,而是......
  • java-01
    Java入门IDEA优化idea插件翻译、阿里巴巴代码规范指导IDEAdebug使用Stepinto:单步执行(一行一行代码执行),如果遇到子函数,就会进入子函数,并且继续单步执行。就是每一行需要执行的代码都不跳过,一行一行进行。Stepover:在单步执行的时候,如果遇到子函数,并不会进入子函数,而是......
  • Python用GARCH、离散随机波动率模型DSV模拟和估计股
    原文链接:http://tecdat.cn/?p=25165 原文出处:拓端数据部落公众号这篇文章介绍了一类离散随机波动率模型,并介绍了一些特殊情况,包括GARCH和ARCH模型。本文展示了如何模拟这些过程以及参数估计。本文为这些实验编写的Python代码在文章末尾引用。离散随机波动率模型是一个......
  • Python - Plotly Express - x 轴 xticks
    我有一个代码,我想用标签作为月份和年份的名称绘制x轴。但目前它正在x轴上绘制所有时间戳,如-代码片段是:fig=px.scatter(data_frame,x=data_frame.timestamp,y=data_frame.err_codes_integer,hover_name=data_frame.col3,......
  • 8:Python字符串的魔法属性
    test="alex"v=test.capitalize()#首字母的大写print(v)test1="alEx"v1=test1.casefold()#所有字母变小写print(v1)test2="alEx"v2=test2.center(20,"*")#设置宽度,并将内容居中,20代指总长度,*代指空白位置填充且只能填一个字符print(v2)test3="alexralexr"v3=te......
  • BUUCTF 6.[第五空间2019 决赛]PWN5 1
    拿到题目,先运行一下很明显地出现了一个重复我们的输入,以及一个判断的过程,那么我们可以猜测可能会有栈溢出漏洞,让我们继续保护是开了一个canary以及nx,大概率就不是栈溢出漏洞了,因为canary的存在会使栈溢出非常麻烦。我们看一下IDA存在栈溢出漏洞,但是由于长度不够,我们无法......
  • 如何在 Python 中创建正确显示素数的代码?
    素数是只能被自身和1整除的数。例如,数字5是素数,因为它只能被1整除和5.然而,数字6不是质数,因为它可以被整除通过2和3。编写一个名为is_prime的布尔函数,它接受一个整数作为参数如果参数是素数则返回true,否则返回false。使用程序中提示用户输入数字然后输......
  • 在 MySQL Workbench 中升级 python
    MySQLWorkbench中的python版本不断受到安全标记,因为它不是最新版本。我的电脑上有最新版本,但在MySQL文件中它似乎是旧版本。我怎样才能更新,使其与我的电脑版本相同?尝试看看是否可以更新python,但没有运气很遗憾,你无法直接升级MySQLWorkbench内置的Python版本......
  • Python科研武器库 - 文件/路径操作 - 判断路径是否存在
    使用场景:在科研中,用Python处理数据的一个核心目的是批量处理,批量处理节省了研究者大量的时间和精力,不然,还不如手动一个个地去处理。批量处理通常要求数据整体较为规整,能够进行统一的处理操作,但实际数据中总存在一些不规则的样本,甚至有些样本的命名都存在不规范,例如,整个数据集......