首页 > 其他分享 >网络爬虫设置代理服务器

网络爬虫设置代理服务器

时间:2024-06-21 20:31:13浏览次数:3  
标签:http 请求 IP list 爬虫 代理服务器 代理 地址 设置

      

目录

1.获取代理 IP

2.设置代理 IP

3. 检测代理 IP 的有效性

4. 处理异常


         如果希望在网络爬虫程序中使用代理服务器,就需要为网络爬虫程序设置代理服务器。 设置代理服务器一般分为获取代理 IP 、设置代理 IP 两步。接下来,分别对获取代理 IP 和设 置代理 IP 进行详细介绍。

1.获取代理 IP

        代理 IP 主要有 3 种获取方式,它们分别是获取免费代理 IP 、获取付费代理 IP 和 ADSL 拨号,关于它们的介绍如下。         (1 )获取免费代理 IP 。免费代理 IP 基本没有成本,可以从免费代理网站(如快代理、全 网代理 IP 等)上找一些免费代理 IP ,测试可用后便可以收集起来备用,但使用这种方式获取 的可用代理 IP 相对较少。         (2 )获取付费代理 IP 。互联网上存在许多代理商,用户付费后便可以获得一些高质量的 代理 IP 。         (3 ) ADSL 拨号。 ADSL ( Asymmetric Digital Subscriber Line ,非对称数字用户线路)通 过拨号的方式上网,需要输入 ADSL 账号和密码。每次拨号都会更换一个新的 IP 地址,不过 ADSL 拨号操作起来比较麻烦。每切换一次 IP 地址,都要重新拨号。重拨期间还会处于短暂 断网的状态。         综上所述,免费代理 IP 是比较容易获取的,不过这类代理 IP 的质量不高,高度匿名代理 IP 比较少,有的代理 IP 很快会失效。如果大家对代理 IP 的质量要求比较高,或者需要大量 稳定的代理 IP ,那么建议选择一些正规的代理商进行购买。

2.设置代理 IP

        在 Requests 中,设置代理 IP 的方式非常简单:只需要在调用请求函数时为 proxies 参数 传入一个字典。该字典包含了所需要的代理 IP ,其中字典的键为代理类型(如 http 或 https ), 字典的值为“代理类型 ://IP 地址 : 端口号”格式的字符串。例如,定义一个包含两个代理 IP 的 字典,代码如下。
proxies = { 
 'http': 'http://127.0.0.1:8070', 
 'https': 'https://10.10.1.10:1080', 
}
        接下来,通过一个例子演示如何从 IP 地址列表中随机选择一个 IP 地址,将该 IP 地址设 置为代理 IP ,之后基于该代理 IP 请求小兔鲜儿网首页,具体代码如下。
import requests 
import random 
# 代理 IP 地址的列表
proxy_list = [ 
 {"http" : "http://101.200.127.149:3129"}, 
 {"http" : "http://59.55.162.4:3256"}, 
 {"http" : "http://180.122.147.76:3000"}, 
 {"http" : "http://114.230.107.102:3256"}, 
 {"http" : "http://121.230.211.163:3256"} 
] 
base_url = 'http://erabbit.itheima.net/#/' 
header = {'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64' 
 'AppleWebKit/537.36 (KHTML, like Gecko)' 
 'Chrome/90.0.4430.212 Safari/537.36'} 
# 发送 GET 请求,将 proxy_list 中任意一个 IP 地址设为代理
response = requests.get(base_url, headers=header, 
 proxies= random.choice(proxy_list)) 
print(response.status_code)

        header请求头字段可以在网页按F12键,上方找到网络标识,然后点击下方有一个名称点进去,右边窗口下面就有User-Agent字段。

 

 

        上述代码中,首先创建了包含 5 个 IP 地址的列表 proxy_list ,定义了代表小兔鲜儿网首页 URL 的变量 base_url ,定义了表示请求头的变量 header ;然后调用 get() 函数根据 base_url 请求 小兔鲜儿网首页,同时指定该请求的请求头为 header 且代理 IP 为 proxy_list 中的任意一个 IP 地址,以防止服务器识别出网络爬虫的身份而被禁止访问,并将服务器返回的响应赋值给变 量 response ;最后访问 response 的 status_code 属性获取响应状态码。 运行代码,输出如下结果。
 200
        从输出结果可以看出,程序成功访问了小兔鲜儿网首页。 需要说明的是,上述程序中使用的代理 IP 是免费的。由于使用时间不固定,这些代理 IP 一旦超出使用时间范围就会失效,此时再运行上述程序则会出现 ProxyError 异常,所以我们 在这里建议大家换用自己查找的代理 IP 。

3. 检测代理 IP 的有效性

        互联网上有很多免费的代理 IP ,但这些 IP 地址并不都是有效的。因此需要对获取的免费 IP 地址进行检测,确定 IP 地址是否有效。检测代理 IP 有效性的过程比较简单,需要先遍历 收集的所有代理 IP ,将获取的每个代理 IP 依次设为代理,再通过该 IP 地址向网站发送请求。 如果请求成功,则说明该 IP 地址是有效的;如果请求失败,则说明该 IP 地址是无效的,需要 被剔除。         下面以 3.4.2 节的代理 IP 为例,为大家演示如何检测代理 IP 的有效性,具体代码如下

 

import requests 
proxy_list = [ 
 {"http" : "http://101.200.127.149:3129"}, 
 {"http" : "http://59.55.162.4:3256"}, 
 {"http" : "http://180.122.147.76:3000"}, 
 {"http" : "http://114.230.107.102:3256"}, 
 {"http" : "http://121.230.211.163:3256"} 
] 
base_url = 'http://erabbit.itheima.net/#/' 
header = {'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64' 
 'AppleWebKit/537.36 (KHTML, like Gecko)' 
 'Chrome/90.0.4430.212 Safari/537.36'} 
# 遍历代理 IP 
for per_ip in proxy_list.copy(): 
 try: 
 # 发送 GET 请求,将获取的每个 IP 地址设置为代理
 response = requests.get(base_url, headers=header, 
 proxies=per_ip, timeout=3) 
 except: 
 # 失败则输出 IP 地址无效,并将该 IP 地址从 proxy_list 列表中移除
 print(f'IP 地址:{per_ip.get("http")}无效') 
 proxy_list.remove(per_ip) 
 else: 
 # 成功则输出 IP 地址有效
 print(f'IP 地址:{per_ip.get("http")}有效')
        上述加粗部分的代码中,首先从 proxy_list 列表的副本遍历了每个 IP 地址 per_ip ;然后在 try 子句中调用 get() 函数发送了一个 GET 请求,并在发送该请求时将 per_ip 依次设置为代理,由代 理服务器代替程序向服务器转发请求;接着在 except 子句中处理了请求失败的情况,输出“ IP 地址: ××× 无效”,并将该 IP 地址从 proxy_list 列表中移除,确保 proxy_list 列表中只保留有效 的 IP 地址;最后在 else 子句中处理了请求成功的情况,输出“ IP 地址: ××× 有效”。 运行代码,输出如下结果。
IP 地址:http://101.200.127.149:3129 有效
IP 地址:http://59.55.162.4:3256 无效
IP 地址:http://180.122.147.76:3000 无效
IP 地址:http://114.230.107.102:3256 无效
IP 地址:http://121.230.211.163:3256 有效
        从输出结果可以看出,这 5 个代理 IP 中有两个是有效的,其余 3 个都是无效的。

4. 处理异常

        每个程序在运行过程中可能会遇到各种各样的问题,网络爬虫自然也不例外。         访问网站离不开网络的支撑。由于网络环境十分复杂,具有一定的不可控性,所以网络爬虫 每次访问网站后不一定能够成功地获得从服务器返回的数据。网络爬虫一旦在访问过程中遇 到一些网络问题(如 DNS 故障、拒绝连接等),就会导致程序引发异常并停止运行。 requests.exceptions 模块中定义了很多异常类型,常见的异常类型如表 3-2 所示。

         表 3-2 中罗列了一些常见的异常类型。其中,Timeout 继承自 RequestException,Connect Timeout 和 ReadTimeout 继承自 Timeout。 为保证程序能够正常终止,我们可以使用 try-except 语句捕获相应的异常,并对异常进行 相应的处理。 由于谷歌网站服务器的原因,访问该网站必定会出现连接超时的问题。下面以访问谷歌 网站为例,为大家演示如何使用 try-except 语句捕获 RequestException 异常,具体代码如下。

1 import time 
2 import requests 
3 # 记录请求的发起时间
4 print(time.strftime('开始时间:%Y-%m-%d %H:%M:%S')) 
5 # 捕获 RequestException 异常
6 try: 
7 html_str = requests.get('http://www.google.com').text 
8 print('访问成功') 
9 except requests.exceptions.RequestException as error: 
10 print(error) 
11 # 记录请求的终止时间
12 print(time.strftime('结束时间:%Y-%m-%d %H:%M:%S'))
        上述代码中,第 4 行代码记录了发送请求之后的时间。第 6 ~ 10 行代码使用 try-except 语 句尝试捕获与处理 RequestException 异常。其中,第 6 ~ 8 行代码在 try 子句中调用 get() 函数 访问谷歌网站,并在访问成功后输出“访问成功”。第 9 ~ 10 行代码在 except 子句中指定了捕 获的异常类型为 RequestException 。程序监测到 try 子句中的代码抛出 RequestException 异常 时,会捕获 RequestException 和所有继承自 RequestException 的异常,并在捕获异常后输出详 细的异常信息。第 12 行代码记录了终止请求之后的时间。 运行代码,输出如下结果。
开始时间:2021-06-16 13:50:53 
HTTPConnectionPool(host='www.google.com', port=80): Max retries exceeded with url: 
/ (Caused by NewConnectionError('<urllib3.connection.HTTPConnection object at 
0x00000000034D6790>: Failed to establish a new connection: [WinError 10060] 由于连接方
在一段时间后没有正确答复或连接的主机没有反应,连接尝试失败。')) 
结束时间:2021-06-16 13:51:14
        通过对比结束时间与开始时间可知,我们等待了约 20 秒,这个时间相对来说有些长,这 种长时间的等待是没有任何意义的。         为了减少无意义的等待,我们在发送 HTTP 请求时可以设置超时时长,即调用 get() 函数 时传入 timeout 参数,并给该参数指定代表超时时长的值。如果超过该时长,服务器仍然没有 返回任何响应内容,就让程序立即引发一个超时异常。在以上示例中,为请求设置超时时长 为 5 秒,具体代码如下。
# 发送 GET 请求,设置超时时长
html_str = requests.get('http://www.google.com', timeout=5).text

        再次运行代码,输出如下结果。 

开始时间:2021-06-16 14:30:01 
HTTPConnectionPool(host='www.google.com', port=80): Max retries exceeded with url: 
/ (Caused by ConnectTimeoutError(<urllib3.connection.HTTPConnection object at 
0x00000000033E23D0>, 'Connection to www.google.com timed out. (connect timeout=5)')) 
结束时间:2021-06-16 14:30:06
        通过对比结果中的结束时间和开始时间可知,程序执行了 5 秒后便直接结束,并抛出 ConnectTimeoutError 异常及提示信息“ Connection to www.google.com timed out ”。这说明连接 谷歌网站时超过了预设的等待时长而导致访问失败。

 

 

 

 

 

 

 

标签:http,请求,IP,list,爬虫,代理服务器,代理,地址,设置
From: https://blog.csdn.net/weixin_49816293/article/details/139868883

相关文章

  • 华为电脑BIOS设置系统启动顺序
        最近在华为电脑上装了Windows和Ubuntu双系统后,由于安装失误,导致每次开机后都会进入grub界面。    为了正常进入Windows和Ubuntu系统,在开机进入grub界面前,可以按F12进入bootmanager界面,在此界面下可以选择需要启动的系统。(请原谅我使用手机拍摄屏幕的方......
  • Unity初始位置初始化设置
    一、Transform面板介绍参数说明:        Position:位置;        Rotation:角度;        Scale:   比例。二、在Transform面板填写参数,如图所示:三、编写代码转换物体位置、角度、比例   1、位置转换:代码说明:        将目前游戏......
  • github怎么设置本地push代码
    从github拉取公开代码使用gitpull即可但是如果想要push则会报错clone代码本次使用个人测试的公开代码因为是公开代码无需验证即可clone#gitclonehttps://github.com/liuyueming/salt.git修改代码提交即使输入的用户名和密码正确也会报错#gitaddtest[root@docke......
  • 一文读懂Java线程池之自定义线程池、设置合适的线程数量、线程池阻塞队列、线程拒绝策
    在上篇我们学习了线程池各个参数的含义,线程池任务处理流程,使用线程池的好处等内容,本篇我们学习如何创建一个适合我们业务的线程池。为此,我们有必要先学习一下如何大概确定我们线程池核心线程数、怎么设置阻塞队列的类型与大小、当线程池没有能力处理任务了该如何使用拒绝策略等......
  • Python学习之爬虫简单例子
    importBeautifulSoupimportpandasaspdimporturllib.request,urllib.errordefrequestUrl(url):  headers={    'User-Agent':"Mozilla/5.0(Macintosh;IntelMacOSX10_14_6)AppleWebKit/537.36(KHTML,likeGecko)Chrome/81.0.404......
  • 将Nacos设置为微服务的配置中心
    首先需要明确Nacos作为配置中心能干什么?答:我的理解就是将配置文件动态化,可以实时的修改大部分配置项。实现步骤导入maven <dependency><groupId>com.alibaba.cloud</groupId><artifactId>spring-cloud-starter-alibaba-nacos-discovery</art......
  • 基于Python爬虫的城市天气数据可视化分析
    基于Python爬虫的城市天气数据可视化分析一、项目简介二、项目背景三、Python语言简介四、网络爬虫简介五、数据可视化简介六、天气数据爬取与存储6.1获取目标网页6.2发送请求6.3提取数据6.4保存数据七、天气数据可视化7.1天气现象轮播图7.2历......
  • (2024)豆瓣电影详情页内容爬虫详解和源码
    (2024)豆瓣电影详情页内容爬虫详解和源码这是一个Python爬虫程序,用于抓取豆瓣电影详情页面如https://movie.douban.com/subject/1291560/的数据。它首先发送GET请求,使用PyQuery解析DOM,然后根据<br>标签分割HTML内容,提取电影信息如导演、演员、类型等,并将中文键转换为英文键......
  • Chrome谷歌浏览器如何设置,才能正常使用?
    Chrome浏览器,也被称为谷歌浏览器,由于简洁的界面设计,极快的响应速度,强大的插件商店,在全球浏览器市场份额中一直都处于遥遥领先的地位。但是因为2010年谷歌宣布退出中国,国内不能再使用谷歌的服务,所以在国内需要设置一下才能正常的使用,如何设置呢?今天教给大家。首先下载Chrome浏......
  • 小说爬虫-02 爬取小说详细内容和章节列表 推送至RabbitMQ 消费ACK确认 Scrapy爬取 SQL
    代码仓库代码我已经上传到Github,大家需要的可以顺手点个Star!https://github.com/turbo-duck/biquge_fiction_spider背景介绍上一节已经拿到了每个小说的编码:fiction_code,并且写入了数据库表。接下来,我们写一个小工具,将数据表中的数据,都推送到RabbitMQ中。为了保......