首页 > 编程语言 >python爬虫学习小记——request模块

python爬虫学习小记——request模块

时间:2023-08-04 12:34:47浏览次数:40  
标签:请求 响应 python request 爬虫 headers url 模块 requests

要学习爬虫我们首先要了解requests这个模块

Python requests 模块

Python requests 是一个常用的 HTTP 请求库,可以方便地向网站发送 HTTP 请求,并获取响应结果。

requests 模块比 urllib 模块更简洁。

使用 requests 发送 HTTP 请求需要先导入 requests 模块:

import requests

导入之后我们的python就可以网页发送请求并获取响应了,下面是常用请求方法示例:

 1 import requests
 2 url="https://www.cnblogs.com/Curitaos/"
 3 headers={
 4 'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36 QIHU 360SE'
 5 } #可以指定我们在发送请求时所需要的request头
 6 params={
 7     "key1":"value1",
 8     "key2":"value2"
 9 }#可在相关的请求方法后添加的查询参数
10 data={
11     "key1":"value1",
12     "key2":"value2"
13 }#请求体
14 # respond=requests.get(url=url,headers=headers);#可以使用params指定参数或者将参数写入url中再在url中放置变量
15 # respond=requests.get(url,headers=headers,params=params);
16 # respond=requests.post(url,headers=headers,data=data)#在发送post请求时通过data发送相关的参数

返回的request对象包含了各种响应的信息,该对象包含了具体的响应信息,如状态码、响应头、响应内容等:

1 print(response.status_code)  # 获取响应状态码
2 print(response.headers)  # 获取响应头
3 print(response.content)  # 获取HTTP响应内容的 二进制(bytes) 形式
4.print(respond.text)#http响应内容的 字符串(str) 形式,请求url对应的页面内容
 

一般来说文本用.text转换,图片视频等用.content转换

如果解析出现乱码可以使用该方法进行编码转换detail_name.encode('iso-8859-1').decode('GBK')

 

标签:请求,响应,python,request,爬虫,headers,url,模块,requests
From: https://www.cnblogs.com/Curitaos/p/17605192.html

相关文章

  • Python如何开发桌面应用程序?Python基础教程,第十三讲,图形界面
    当使用桌面应用程序的时候,有没有那么一瞬间,想学习一下桌面应用程序开发?行业内专业的桌面应用程序开发一般是C++,C#来做,Java开发的也有,但是比较少。本节课会介绍Python的GUI(图形用户界面)编程,用Python也可以写出漂亮的桌面程序,建议此次课程大家稍作了解不要浪费太多时间,因为没有哪家......
  • Python | 开源项目you-get的下载和使用
    安装前提条件建议使用以下依赖项:PythonFFmpeg(可选)RTMPDump$pythonPython3.9.11(tags/v3.9.11:2de452f,Mar162022,14:33:45)[MSCv.192964bit(AMD64)]onwin32Type"help","copyright","credits"or"license"formoreinformat......
  • python--compile、exec、eval函数使用
    compile(source,filename,mode,flags=0,dont_inherit=False,optimize=-1)参数说明:source:字符串或AST对象,表示需要进行编译的python代码filename:指定需要编译的代码文件,如果不是文件读取代码则传递一些可辨认的值.mode:用于标识必须当做那类代表来编译;(如果source是......
  • requests的学习
    response的解析解析请求的url:r.url解析响应状态码:r.ststus_code解析文本类型的response:r.textr.text用于解析respose内容为文本类型requests会自动解码其中的内容r.encoding#查看requests使用了什么编码或者设置自己的编码如果你改变了编码,每当你访问r.text,R......
  • python调用RabbitMQ
    本文不涉及较难的操作,仅仅提供常用的生产消息和消费消息的方式。--好像也没啥花里胡哨的操作1、准备想要python调用rabbitMQ需要安装pika,所有需要提前安装好pika包#全局pipinstallpika;#如果用的anaconda的上面那个装不上可以试试这个?condainstallpika;2、代......
  • python 操作oracle
    表DDL--"C##TAPDATA_TEST".ALAM3definitionCREATETABLE"C##TAPDATA_TEST"."ALAM3"( "UID1"VARCHAR2(100)NOTNULLENABLE, "UID2"VARCHAR2(100)NOTNULLENABLE, "COLUMN1"VARCHAR2(100),......
  • 使用HTTP隧道时如何应对目标网站的反爬虫监测?
    在进行网络抓取时,我们常常会遇到目标网站对反爬虫的监测和封禁。为了规避这些风险,使用代理IP成为一种常见的方法。然而,如何应对目标网站的反爬虫监测,既能保证数据的稳定性,又能确保抓取过程的安全性呢?本文将向您分享一些关键策略,帮助您迈过反爬虫的障碍,提高抓取成功率,并保护自己的......
  • String requestUrl = StringUtils.replaceOnce(this.getRequestURI(), this.getContex
    当使用该行代码处理以下请求时:请求URL:http://example.com/myapp/products/details上下文路径(ContextPath):/myapp代码将执行以下操作:this.getRequestURI()返回"/myapp/products/details"。this.getContextPath()返回"/myapp"。StringUtils.replaceOnce("/myapp/products......
  • 希尔排序的Python实现,并逐行解释代码
    当然,我可以为您提供希尔排序的Python实现,并逐行解释代码。以下是一个示例:defshell_sort(arr):n=len(arr)gap=n//2#初始化间隔whilegap>0:foriinrange(gap,n):temp=arr[i]j=i#对间隔为gap......
  • 基于HTTP代理的爬虫技术研究
    在当今信息化的时代,网络爬虫已经成为许多企业、学术机构和个人不可或缺的工具。对于那些需要大量数据的用户群体而言,爬虫技术的价值就像是一片无垠的宝藏。而基于HTTP代理的爬虫技术,在这个领域中展现出真正的魅力和应用前景。首先,让我们先理解一下HTTP代理技术的重要性。作......