首页 > 其他分享 >爬虫 | 小米应用商店 APP 排行榜爬取

爬虫 | 小米应用商店 APP 排行榜爬取

时间:2023-07-23 09:33:35浏览次数:45  
标签:HTTP 请求 res APP 爬虫 爬取 requests com

本实验将从 HTTP 协议开始为你讲述爬虫的底层原理,之后将 HTTP 协议与 requests 库进行知识关联,为你解释 requests 库是如何实现 HTTP 协议中的相关内容。在实验后半节将为大家讲解 re 模块与正则表达式的泛应用技巧,该技巧可以极大地提高正则表达式编写速度与 Python 爬虫编写效率。

知识点

  • HTTP 协议介绍
  • requests 库响应体
  • re 模块与正则表达式泛应用
  • 批量图片存储

HTTP 协议介绍

学习爬虫需要对 HTTP 协议有一些了解,这样对于爬虫原理的理解会更加清晰,本实验开始部分将对 HTTP 协议做一些简单的介绍,由于课程核心为爬虫知识,HTTP 协议部分知识会以与爬虫关联度高的部分入手讲解,例如请求头、响应头、状态码以及内容类型。

HTTP 消息结构

HTTP 协议(HyperText Transfer Protocol,超文本传输协议)是目前互联网使用最广泛的一种协议,例如你经常看到的网址 http://www.baidu.com,当访问百度网站的时候,其实就是使用 HTTP 协议,将数据从百度服务器传输到本地浏览器。

写爬虫就是通过 Python 程序去模拟这一过程,通过使用各种编程上的技巧,让网站服务器将数据通过 HTTP 协议返回给写好的解析程序,在将数据存储到本地。

对于 HTTP 消息结构,简单理解只有两部分构成:

  • 客户端请求消息
  • 服务器响应消息

客户端请求消息包括请求行、请求头、空行、请求数据四个部分,它们一般叫做请求报文。

服务器响应消息也是四个部分构成:状态行、消息报头、空行和响应正文。

以上内容在本系列实验中涉及的知识点包括:请求头请求数据响应正文,其它内容爬虫课程不做展开讲解。

学习到这里,相信大家已经对一个 HTTP 协议有了一个模糊的概念。接下来为了更好地掌握爬虫相关知识,还需要进行一个转换,将请求与响应切换成英文模式。请求对应的为 request,响应对应为 response,完成这一步之后,在打开谷歌浏览器的开发者工具,你可以快速定位到一个 HTTP 的请求消息与响应消息,具体参照下图右半部分:

上图红色框部分,包含了一些重要的请求头和响应头信息,我们依次进行解读。

首先是概括性部分:

具体参数说明(只说明重要参数):

  • Request URL:请求地址;
  • Request Method:请求方法;
  • Status Code:状态码;
  • Remote Address:当前 HTTP 请求的远程地址;
  • Referrer Policy:用于设置 Referrer 策略,本系列实验不涉及。

概括性部分说明完毕,继续下翻找到 Request Headers 部分:

该部分的参数将重点介绍,其中有很多参数都会对爬虫程序产生比较大的影响,甚至可以说所有的爬虫都是在不断的伪造一个相对真实的请求头,然后让网站或者 APP 服务器发送正确的数据到我们本地

具体参数说明(只说明重要参数):

  • Accept:客户端(浏览器)期望接收的内容类型(有文档会解释成浏览器支持的 MIME 类型,由于会引出更多的概念,故省略),大意为服务器要给我返回什么格式的数据,可以是 HTML 网页文件,也可以是 PNG 图片,更可以是各种音视频;
  • Accept-Encoding:客户端(浏览器)可以支持的内容压缩编码类型(一般不需要设置);
  • Accept-Language:客户端(浏览器)接受的语言格式;
  • Cookie:服务端给客户端传的 HTTP 请求状态,原因是因为 HTTP 协议是无状态的(有兴趣的同学可以检索下何为无状态协议),所以需要存储一些信息带客户端(浏览器)用于下次 HTTP 发起请求时,将数据传回服务器,该参数非常重要,后续实验会有所涉及;
  • Content-Length:请求内容的长度,一般用于请求音频或者视频等文件,需要借助文件大小实现;
  • HOST:请求的服务器的域名和端口号;
  • Referer:请求的上一个页面,该参数比较重要,爬虫程序经常需要借助该参数去访问一个网站的二级页面;
  • User-Agent:浏览器 UA,包含了一个特征字符串,用来让服务器对客户端(浏览器)发来的请求进行应用类型、操作系统、软件开发商以及版本号的相关判断,非常重要的参数,上一实验已经进行介绍。

以上为请求头相关参数说明,对于响应头将在后续实验中进行补充说明,本实验只介绍响应体内容。

在开发者工具中,除了 Headers 选项卡以外,还有一个 Response 选项卡,该部分即为响应体内容,具体位置如下图所示:

切换到 Response 选项卡下,你将看到源码内容,如果想查看源码效果,切换到 Response 之前的 Preview 即可。

HTTP 请求方法

通过 get 方法你获取到的课程数据,我们也曾提及跟 get 方法像类似的操作在 requests 库中存在几个, postputdeleteheadoptions,学习了 HTTP 协议之后,你将明白这些其实对应的是 HTTP 协议中的请求方法。

HTTP 目前有两种标准,分别是 HTTP1.0,HTTP1.1。具体标准有何差异依旧为大家的扩展学习知识。

HTTP1.0 定义了三种请求方法,这三种也是爬虫中最常见的三种,分别是 GETPOSTHEAD

HTTP1.1 除了上述三种请求外,扩展了六种新的请求方法,分别是 OPTIONSPUTPATCHDELETETRACECONNECT

以上内容在有的教材上也被称作 HTTP 动词,requests 库提供了几乎所有 HTTP 动词的功能,鉴于本系列实验的定位,我们将把精力更多的放在 get 方法与 post 方法上。

HTTP 状态码

编写爬虫你需要了解常见的 HTTP 状态码,很多时候可以直接借助状态码完成爬虫的基本操作,状态码非常多,你只需要记住 3 个常见的即可,分别是:

  • 200 - 请求成功
  • 404 - 请求的资源(网页等)不存在
  • 500 - 内部服务器错误

在 Python 代码中展示一下如何获取状态码:

import requests

res = requests.get("http://app.mi.com/")
# 输出请求到的响应状态码
print(res.status_code) # 200

上述代码最终输出的为 200,表示请求成功。在 requests 中内置了一个枚举可以直接用于判断是否请求成功:

import requests

res = requests.get("http://app.mi.com/")
# 输出请求到的响应状态码
if res.status_code == requests.codes.ok:
    print("请求成功")
# 请求成功

对于 requests.codes.{具体的值}requests 中提供了非常多的枚举,由于值非常多,可以查阅这个地址

requests 库响应体

上文中通过一个很大的篇幅给大家介绍了 HTTP 协议,目的就是为了编写爬虫的过程中,你可以带上 HTTP 协议视角去解决问题,最常见的就是通过设定特定的请求头获取到理想的数据返回,这部分内容在本系列实验后续会逐步展开,本实验也会涉及其中上述 HTTP 协议参数中部分内容。

接下来要学习的内容是 requests 库响应内容,在 requests 中包含如下几种获取响应内容的方法:

  • r.text 以文本的方式访问响应体
  • r.content 以字节的方式访问响应体
  • r.json() 将响应体直接进行 json 序列化操作
  • r.raw 获取来自服务器的原始套接字响应(注意本部分内容不再本系列实验讲授范围)

以文本的方式访问响应体

直接获取 requests 请求发出后,服务器返回的文本数据是爬虫程序最常使用的技术,该方式一般用于网页源码的直接读取,例如下述代码,你将直接获取到百度服务器返回的网站源码。

将如下代码写入 /home/project/index.py 文件中:

import requests

res = requests.get("http://www.baidu.com/")

if res.status_code == requests.codes.ok:
    print(res.text)

执行结果如下:

<!DOCTYPE html>
<!--STATUS OK--><html> <head><meta http-equiv=content-type content=text/html;charset=utf-8><meta http-equiv=X-UA-Compatible content=IE=Edge><meta content=always name=referrer><link rel=stylesheet type=text/css href=http://s1.bdstatic.com/r/www/cache/bdorz/baidu.min.css><title>百度一下,你就知道</title></head> <body link=#0000cc> <div id=wrapper> <div id=head> <div class=head_wrapper> <div class=s_form> <div class=s_form_wrapper> <div id=lg> <img hidefocus=true src=//www.baidu.com/img/bd_logo1.png width=270 height=129> </div> <form id=form name=f action=//www.baidu.com/s class=fm> <input type=hidden name=bdorz_come value=1> <input type=hidden name=ie value=utf-8> <input type=hidden name=f value=8> <input type=hidden name=rsv_bp value=1> <input type=hidden name=rsv_idx value=1> <input type=hidden name=tn value=baidu><span class="bg s_ipt_wr"><input id=kw name=wd class=s_ipt value maxlength=255 autocomplete=off autofocus></span><span class="bg s_btn_wr"><input type=submit id=su value=百度一下 class="bg s_btn"></span> </form> </div> </div> <div id=u1> <a href=http://news.baidu.com name=tj_trnews class=mnav>新闻</a> <a href=http://www.hao123.com name=tj_trhao123 class=mnav>hao123</a> <a href=http://map.baidu.com name=tj_trmap class=mnav>地图</a> <a href=http://v.baidu.com name=tj_trvideo class=mnav>视频</a> <a href=http://tieba.baidu.com name=tj_trtieba class=mnav>贴吧</a> <noscript> <a href=http://www.baidu.com/bdorz/login.gif?login&amp;tpl=mn&amp;u=http%3A%2F%2Fwww.baidu.com%2f%3fbdorz_come%3d1 name=tj_login class=lb>登录</a> </noscript> <script>document.write('<a href="http://www.baidu.com/bdorz/login.gif?login&tpl=mn&u='+ encodeURIComponent(window.location.href+ (window.location.search === "" ? "?" : "&")+ "bdorz_come=1")+ '" name="tj_login" class="lb">登录</a>');</script> <a href=//www.baidu.com/more/ name=tj_briicon class=bri style="display: block;">更多产品</a> </div> </div> </div> <div id=ftCon> <div id=ftConw> <p id=lh> <a href=http://home.baidu.com>关于百度</a> <a href=http://ir.baidu.com>About Baidu</a> </p> <p id=cp>&copy;2017&nbsp;Baidu&nbsp;<a href=http://www.baidu.com/duty/>使用百度前必读</a>&nbsp; <a href=http://jianyi.baidu.com/ class=cp-feedback>意见反馈</a>&nbsp;京ICP证030173号&nbsp; <img src=//www.baidu.com/img/gs.gif> </p> </div> </div> </div> </body> </html>

对于代码中的 res.text 额外介绍一下,通过调用 response 对象的 text 属性,可以直接通过文本方式获取到响应体内容。这里还存在一个问题,数据虽然获取到了,但是编码并不正确,错误如下图所示:

注意到红色箭头所指位置为乱码,显示编码为 utf-8,表示获取到数据格式是 utf-8,但是并没有给响应体内容设置格式,下面用到的依旧是 response 对象的属性,通过 encoding 设置响应体编码。

将如下代码覆盖写入 /home/project/index.py 文件中:

import requests

res = requests.get("https://www.baidu.com/")
# 设置响应体编码
res.encoding = "utf-8"

if res.status_code == requests.codes.ok:
    print(res.text)

再次执行代码,获取到的结果中文正常显示。

以字节的方式访问响应体

通过字节的方式获取响应体主要场景应用在图片获取,文件获取,音频视频获取等内容获取上。

获取方式是通过调用 response 对象的 content 属性实现,例如下述代码将通过 res.content 获取一张图片的字节流。将如下代码写入 /home/project/icon.py 文件:

import requests

img_url = ("http://t5.market.xiaomi.com/thumbnail/jpeg/l750/AppStore"
           "/08636408ad50fc7396a2dcac92ac1b18b6842ddbc")
res = requests.get(img_url)

if res.status_code == requests.codes.ok:
    print(res.content)

执行程序的结果如下:

代码中的 re.content 即为图片数据的十六进制编码,在下文我们将通过该方式去爬取 APP 的 ICON 图片。

re 模块与正则表达式泛应用

爬虫程序对于某个技术点需要反复练习,尤其是一些比较基础的技术,re 模块与正则表达式在爬虫中所处的地位非常重要,所以本实验依旧采用它们二者来完成实验。

本实验要爬取的网站为 小米应用商店榜单 在这里案例中,你将使用到 requests 库对请求头的配置,你将通过文本与字节两种方式去获取待爬取数据。

先定义一下待爬取数据内容与格式。

待爬取内容:

  • 上述中各 APP 的标题与分类
  • 各 APP 的图标图片,图片存储在本地电脑上的命名格式为【APP 名称.JPG】

获取单页面一项标题,分类,图片地址

为了达成目标,将任务进行拆解。第一步需要通过 re 模块获取目标页面第一项的元素标题,分类,图片地址,然后在进行扩展,在正式编码之前教给大家一个快速编写正则表达式的技巧,在大多数一般爬虫编写环境下,可以极大的提高你编写爬虫代码的速度。

打开浏览器开发者工具,通过抓手工具快速定位到你想要获取的元素区域。

在选中的标签上(本案例中选中的为 li 标签)点击鼠标右键出现如下弹窗,选择 Edit as HTML

该标签会进入到快速编辑状态,将代码复制到 WebIDE 或者任意编辑器中,代码如下:

<li>
  <a href="/details?id=com.yidian.zheli"
    ><img
      data-src="http://file.market.xiaomi.com/thumbnail/PNG/l62/AppStore/0cff78c883e6f4ad3b1797069212b930701f26b38"
      src="http://file.market.xiaomi.com/thumbnail/PNG/l62/AppStore/0cff78c883e6f4ad3b1797069212b930701f26b38"
      alt="啫喱"
      width="72"
      height="72"
  /></a>
  <h5>
    <a href="/details?id=com.yidian.zheli">啫喱</a>
  </h5>
  <p class="app-desc">
    <a href="/category/2">聊天社交</a>
  </p>
</li>

对上述内容开始着手改造,修改成目标正则表达式。

第一步,所有引号中的内容,修改为 (.*?),修改完毕如下:

<li>
  <a href="(.*?)"
    ><img data-src="(.*?)" src="(.*?)" alt="(.*?)" width="72" height="72"
  /></a>
  <h5><a href="(.*?)">啫喱</a></h5>
  <p class="app-desc"><a href="(.*?)">聊天社交</a></p>
</li>

这里,你可以通过 Python 进行一下验证,查看正则表达式是否正确。将如下代码覆盖写入 /home/project/index.py 文件:

import requests
import re
headers = {
    "User-Agent": "Mozilla/5.0 (Windows NT 6.2) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/28.0.1464.0 Safari/537.36"
}

def get_item():
    url = "http://app.mi.com/topList?page=1"
    res = requests.get(url=url, headers=headers)
    # 比对返回的状态码
    if res.status_code == requests.codes.ok:
        html = res.text
        html = re.sub(">\s*<","><",html)

        # 编译正则表达式,生成一个正则表达式( Pattern )对象
        pattern = re.compile(
            r'<li><a href="(.*?)"><img data-src="(.*?)" src="(.*?)" alt="(.*?)" width="72" height="72"></a><h5><a href="(.*?)">啫喱</a></h5><p class="app-desc"><a href="(.*?)">聊天社交</a></p></li>')
        m = pattern.search(html)
        # m.group(0) 返回整个匹配的字符串
        print(m.group(0))

if __name__ == "__main__":
    get_item()
# 可能啥都匹配不到,只要修改pattern的re.compile中的正则。

发现正则表达式和目标匹配结构出现差异,该情况即为正则表达式未达到预期效果,继续调整,在第 1 个 href 后面增加 /details 提高匹配精准度。

<li>
  <a href="/details(.*?)"
    ><img data-src="(.*?)" src="(.*?)" alt="(.*?)" width="72" height="72"
  /></a>
  <h5><a href="(.*?)">啫喱</a></h5>
  <p class="app-desc"><a href="(.*?)">聊天社交</a></p>
</li>

这一次运行成功得到了 啫喱 这条数据。

继续修改,让正则表达式变的更加通用,可以匹配整页数据,将所有 HTML 双标签中的文字替换为 (.*?),也就是上图 啫喱聊天社交 位置。

<li>
  <a href="/details(.*?)"
    ><img data-src="(.*?)" src="(.*?)" alt="(.*?)" width="72" height="72"
  /></a>
  <h5><a href="(.*?)">(.*?)</a></h5>
  <p class="app-desc"><a href="(.*?)">(.*?)</a></p>
</li>

测试一下最新修改的正则表达式是否可用。这里我直接将代码调整到整页数据匹配,具体如下:

import requests
import re
headers = {
    "User-Agent": "Mozilla/5.0 (Windows NT 6.2) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/28.0.1464.0 Safari/537.36"
}

def get_item():
    url = "http://app.mi.com/topList?page=1"
    res = requests.get(url=url, headers=headers)
    # 比对返回的状态码
    if res.status_code == requests.codes.ok:
        html = res.text
        html = re.sub(">\s*<","><",html)
        # 编译正则表达式,生成一个正则表达式( Pattern )对象
        pattern = re.compile(
            r'<li><a href="/details(.*?)"><img data-src="(.*?)" src="(.*?)" alt="(.*?)" width="(.*?)" height="(.*?)"></a><h5><a href="(.*?)">(.*?)</a></h5><p class="(.*?)"><a href="(.*?)">(.*?)</a></p></li>')
        items = pattern.findall(html)
        # m.group(0) 返回整个匹配的字符串
        print(items)

if __name__ == "__main__":
    get_item()

运行代码,结果已经成功将本页所有数据匹配成功。

匹配成功的单条数据如下所示,其中会发现比预期的数据要多,要进行字段的解释与删减。

单条数据如下:

('?id=com.tencent.tmgp.sgame', 'http://file.market.xiaomi.com/thumbnail/PNG/l62/AppStore/00194c54cbc874fc23a30e1379f6b8a57ff08b6f5', 'http://resource.xiaomi.net/miuimarket/app/lazyload.gif', '王者荣耀', '/details?id=com.tencent.tmgp.sgame', '王者荣耀', 'app-desc', '/category/19', '网游RPG')

元组数据解释为:

('二级页面', 'ICON图标地址', '懒加载等待图标', 'APP名称', '二级页面', 'APP名称', 'class名称', '分类页面地址', '分类名称')

本实验目标为 APP 名称、分类名称、APP 图标图片,其余信息舍弃,重新调整正则表达式中的括号即可,修改如下:

<li>
  <a href="/details(.*?)"
    ><img data-src="(.*?)" src="(.*?)" alt="(.*?)" width="72" height="72"
  /></a>
  <h5><a href="(.*?)">(.*?)</a></h5>
  <p class="app-desc"><a href="(.*?)">(.*?)</a></p>
</li> 

截止到此,正则表达式快速编写已经完毕,并且已经获得了想要的数据,最终获取到的数据格式为:

('http://file.market.xiaomi.com/thumbnail/PNG/l62/AppStore/0d81fa52e5cae4e2f2b180d9f2058cb741cfa16e0', 'QQ浏览器', '实用工具')

上述正则表达式存在优化空间,大家可以自行扩展学习。

全部页面数据获取

单页页面数据匹配完毕之后,就可以对本实验中涉及的所有页面数据进行获取了,只需要通过一个循环即可实现,为方便代码编写,不在补充获取总页面部分代码,直接固定总页码数。

注意,学习过程中为防止对目标网站造成高频率访问,请通过 time 库设置延迟访问时间

import requests
import re
import time
headers = {
    "User-Agent": "Mozilla/5.0 (Windows NT 6.2) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/28.0.1464.0 Safari/537.36"
}

def get_item(page):
    url = "http://app.mi.com/topList?page={page}".format(page=page)
    res = requests.get(url=url, headers=headers)
    # 比对返回的状态码
    if res.status_code == requests.codes.ok:
        html = res.text
        html = re.sub(">\s*<","><",html)
        # 编译正则表达式,生成一个正则表达式( Pattern )对象
        pattern = re.compile(
            r'<li><a href="/details.*?"><img data-src="(.*?)" src=".*?" alt=".*?" width=".*?" height=".*?"></a><h5><a href=".*?">(.*?)</a></h5><p class=".*?"><a href=".*?">(.*?)</a></p></li>')
        items = pattern.findall(html)
        # m.group(0) 返回整个匹配的字符串
        print(items)

if __name__ == "__main__":
    for page in range(1, 43):
        print("正在爬取第{page}页".format(page=page))
        get_item(page)
        time.sleep(2)

运行结果:

正在爬取第1页
[('http://file.market.xiaomi.com/thumbnail/PNG/l62/AppStore/00194c54cbc874fc23a30e1379f6b8a57ff08b6f5', '王者荣耀', '网游RPG'), ('http://file.market.xiaomi.com/thumbnail/PNG/l62/AppStore/07a272338a5574fdaaad341a53211d8133df9213e', '夸克-新生代智能搜索', '实用工具'), ('http://file.market.xiaomi.com/thumbnail/PNG/l62/AppStore/0805dbfb9574a456fb4a0be32b858ff6c6e57cc08', '抖音', '影音视听'), ...]
正在爬取第2页
[('http://file.market.xiaomi.com/thumbnail/PNG/l62/AppStore/0e3e129774966416d9ad9cf187f85bb7e6b2654bb', 'QQ音乐', '影音视听'), ('http://file.market.xiaomi.com/thumbnail/PNG/l62/AppStore/0d98bf9fbe03e44ad9081e98c4a1ffa773b8808d7', '酷狗音乐', '影音视听'), ('http://file.market.xiaomi.com/thumbnail/PNG/l62/AppStore/0a22d65e3445048f0012481d78d501d930e3cf2db', '小猿搜题', '学习教育'), ...]
正在爬取第3页
[('http://file.market.xiaomi.com/thumbnail/PNG/l62/AppStore/0d0db6f3e702a4796837dbd3c6738cbea41bc2cba', '番茄畅听', '图书阅读'), ('http://file.market.xiaomi.com/thumbnail/PNG/l62/AppStore/07288ee7668b14fe59f20d591ef373fc854f86020', '英雄联盟手游', '网游RPG'), ('http://file.market.xiaomi.com/thumbnail/PNG/l62/AppStore/0306ab8d91bd0430eb58265b8079f17611299c78e', 'QQ阅读', '图书阅读'), ...]
正在爬取第4页
[]
正在爬取第5页
[]
正在爬取第6页
[]

为什么爬取完第三页就没有了呢?

因为这个网址只有三页。

至此,所有数据已经实现了爬取,本实验只缺少最后一环节,将爬取到的图片地址指定的图片保存到本地。

批量图片存储

在上述内容中已经将数据抓取到本地,只需进行格式化就可存储到本地文件中,接下来补充图片抓取函数。

首先创建一个存储图片的目录:

mkdir -p ~/../project/icons

在图片下载的过程中,先屏蔽掉数据输出部分,还有需要提前在 project 目录中新建一个 icons 目录,用于存储下载的图片。

import requests
import re
import time
headers = {
    "User-Agent": "Mozilla/5.0 (Windows NT 6.2) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/28.0.1464.0 Safari/537.36"
}

def save_img(img_url, name):
    img_res = requests.get(url=img_url, headers=headers)
    # 比对返回的状态码
    if img_res.status_code == requests.codes.ok:
        data = img_res.content
        with open("./icons/{name}.png".format(name=name), "wb") as f:
            f.write(data)
        print("{name} - 图片存储完毕".format(name=name))

def get_item(page):
    url = "http://app.mi.com/topList?page={page}".format(page=page)
    res = requests.get(url=url, headers=headers)
    # 比对返回的状态码
    if res.status_code == requests.codes.ok:
        html = res.text
        html = re.sub(">\s*<","><",html)
        # 编译正则表达式,生成一个正则表达式( Pattern )对象
        pattern = re.compile(
            r'<li><a href="/details.*?"><img data-src="(.*?)" src=".*?" alt=".*?" width=".*?" height=".*?"></a><h5><a href=".*?">(.*?)</a></h5><p class=".*?"><a href=".*?">(.*?)</a></p></li>')
        items = pattern.findall(html)
        # m.group(0) 返回整个匹配的字符串
        # print(items)
        for item in items:
            # item 数据为 ('图片地址', '我的世界夏季版', '休闲创意')
            save_img(item[0], item[1])

if __name__ == "__main__":
    for page in range(1, 43):
        print("正在爬取第{page}页".format(page=page))
        get_item(page)
        time.sleep(2)

运行代码之后,你将在控制台看到如下内容输出,左侧文件导航中图片也会对应生成:

实验总结

本实验除为大家扩展 requests 库底层实现原理以外,更重要的是为大家提供了一种正则表达式在 Python 爬虫领域最简单的应用技巧,该内容我称之为 re 模块与正则表达式的泛应用。编写爬虫程序很多时候对正则表达式的精准性要求不是非常高,先匹配到数据,在进行优化是成熟爬虫工程师常用的解决问题思路,希望本实验对你有所启发。

标签:HTTP,请求,res,APP,爬虫,爬取,requests,com
From: https://www.cnblogs.com/zhangxuegold/p/17574690.html

相关文章

  • 【爬虫案例】用Python爬取抖音热榜数据!
    目录一、爬取目标二、编写爬虫代码三、同步讲解视频3.1代码演示视频四、获取完整源码一、爬取目标您好,我是@马哥python说,一名10年程序猿。本次爬取的目标是:抖音热榜共爬取到50条数据,对应TOP50热榜。含5个字段,分别是:热榜排名,热榜标题,热榜时间,热度值,热榜标签。用Chrom......
  • 爬虫----request中的cookies参数
    importrequests#url='https://www.baidu.com/s?wd=python'url='https://home.cnblogs.com/u/dddzy/'#kw={'wd':'python'}headers={'User-Agent':'Mozilla/5.0(WindowsNT10.0;WOW64)AppleWebKit......
  • python如何爬取 ssr 数据
    爬取SSR数据并解析问题描述在中国使用一个高速、稳定的网络连接对于许多人来说是非常困难的。一个解决方案是使用SSR(ShadowsocksR)来获得安全、稳定的网络连接。然而,如何找到可用的SSR服务器成为了一个问题。本文将介绍如何使用Python爬取SSR数据,并解析出有效的服务器信息......
  • 爬虫 | 童年回忆宝可梦数据抓取
    本文将带你认识一个爬取重点解析库lxml,该库属于爬虫“必考”知识点之一,介绍lxml的同时会给你介绍两种解析语法,一种深度结合前端知识进行操作,一种语法简洁,处理速度快。以上两部分内容分别为cssselect与XPath。知识点lxml库与cssselect库XPath语法初识lxml库与c......
  • [爬虫]2.2.1 使用Selenium库模拟浏览器操作
    Selenium是一个非常强大的工具,用于自动化Web浏览器的操作。它可以模拟真实用户的行为,如点击按钮,填写表单,滚动页面等。由于Selenium可以直接与浏览器交互,所以它可以处理那些需要JavaScript运行的动态网页。安装Selenium首先,我们需要安装Selenium库。你可以使用pip命令来安装:pip......
  • 内核映射器(KernelMapper)开发-扩展KdMapper在Window 7 x64的支持
    1、背景  内核映射器有较多年历史了,其中KdMapper是比较著名的,原版中它使用intel的驱动漏洞可以无痕的加载未经签名的驱动。只不过当前只支持在Win10及Win11上运行,现在进行功能的修改以支持在Win7x64环境上。当前假定读者对KdMapper的原理比较了解并编译调试过相关代码。 2......
  • 【大联盟】20230703 T2 开心的序列(sequence) 题解 AT_agc049_f 【[AGC049F] Happy Sequ
    zak/bx恐怖zak将这题加强,出到模拟赛。直接把\(A_i,B_i\le10^5,C_i\le5\)变成了\(A_i,B_i,C_i\le10^9\)。非常恐怖。题目描述点击膜拜zhoukangyang。题解重新再理解一遍。我们维护\(p(x)=\sum_i|a_i-x|+|b_i-x|\),那么就相当于要求\(\forallx,p(x)\le0\),也就......
  • 滚动刷新式网页的爬取方式
    fromlxmlimportetreeimportreimportrequestsimportosimporttimefromfake_useragentimportUserAgent#滚动式刷新的爬取方法base_url='https://www.pearvideo.com/'forpageinrange(1,4):new_page=(page-1)*24url=f'https://w......
  • 爬虫 | 解析蓝桥云课课程数据
    爬取蓝桥云课页面的课程名字和课程链接。爬取内容如下图所示:我们先要打开开发者工具来定位代码,理清我们需要的数据与标签之间的关系。每一个class为col-3的div标签就是一个课程的信息和链接。比如,我们定位Python新手入门课程,如下图所示:观察代码后,我们可以知道,课程地址......
  • NET(c#) 移动APP开发平台之Smobiler开发
    ​如果说基于.net的移动开发平台,目前比较流行的可能是xamarin了,不过除了这个,还有一个比xamarin更好用的国内的.net移动开发平台,smobiler,不用学习另外一套开发模式或者搭建复杂的开发环境,smobiler能够让大家像开发传统windows一样去开发移动手机应用,那么列举一下这个平台的特点。......