首页 > 其他分享 >requests.exceptions.ProxyError问题解决方法

requests.exceptions.ProxyError问题解决方法

时间:2023-07-17 11:13:54浏览次数:41  
标签:http ProxyError 代理 url session https exceptions requests

出现这个问题是因为你系统上在使用代理,然后你的代理又是规则匹配的。

https://stackoverflow.com/questions/36906985/switch-off-proxy-in-requests-library

3种解决方法:

headers = {
    "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:109.0) Gecko/20100101 Firefox/104.0"
}

url = f"{self.url}{urllib.parse.quote(self.name)}&ie=utf-8&pn={pagesize * 50}"

print(f"{url=}")

# 方法一:如果不想requests使用系统代理,但是你系统上正在运行代理,可以将代理设置为None
proxies = {
    # 这个字典的key不可以乱写,必须是http和https
    # 如果你的只有http那就只写http代理,htpps也是相同的道理。
    # http代理
    "http": None,
    # https代理
    "https": None
}

# 方法二:或者修改脚本的环境变量,添加一个NO_PROXY=* 也可以解决问题
# os.environ["NO_PROXY"] = "*"

# 方法三:使用Session来请求,并设置trust_env为False
session = requests.Session()
session.trust_env = False
response = session.get('http://ff2.pw') 

# 方法四:
# 直接关闭你的代理软件

resp = requests.get(url, headers=headers, )

标签:http,ProxyError,代理,url,session,https,exceptions,requests
From: https://www.cnblogs.com/juelian/p/17559461.html

相关文章

  • Python | requests库
    一、基本概念1、简介requests模块是python基于urllib,采用Apache2Licensed开源协议的HTTP库。它比urllib更加方便,可以节约我们大量的工作,完全满足HTTP测试需求。Requests的哲学是以PEP20的习语为中心开发的,所以它比urllib更加Pythoner。2、获取通过pip......
  • Python报错 | 关于requests.exceptions.SSLError解决方案
    学习爬虫遇到的错误。报错信息:requests.exceptions.SSLError:HTTPSConnectionPool(host=’*****’,port=443):Maxretriesexceededwithurl:/(CausedbySSLError(“Can’tconnecttoHTTPSURLbecausetheSSLmoduleisnotavailable.”))解决方法:检查是否已安装......
  • com.mysql.cj.exceptions.UnableToConnectException: Public Key Retrieval is not al
    在做学成在线项目时,启动项目报错:com.mysql.cj.exceptions.UnableToConnectException:PublicKeyRetrievalisnotallowedatsun.reflect.NativeConstructorAccessorImpl.newInstance0(NativeMethod)atsun.reflect.NativeConstructorAccessorImpl.newInstance(NativeConstr......
  • requests高级用法、代理池搭建
    requests高级用法1.自动携带cookie的session对象#session对象----》已经模拟登录上了一些网站---》单独把cookie取出来importrequestsheader={'Referer':'http://www.aa7a.cn/user.php?&ref=http%3A%2F%2Fwww.aa7a.cn%2F','User-Agent':'Mozilla/......
  • requests的基础使用
    爬虫介绍#爬虫:又称网络蜘蛛,spider,一堆程序,从互联网中抓取数据----》数据清洗---->入库#爬虫需要掌握的知识 -抓取数据:发送网络请求(http),获得响应(http响应,响应头,响应体---》真正重要的数据在响应体中) -python模块:requests,selenium-清洗数据:解析拿回......
  • 爬虫学习02 requests高级用法
    1requests高级用法1.0自动携带cookie的session对象#session对象----》已经模拟登录上了一些网站---》单独把cookie取出来-res.cookies是cookiejar对象,里面有get_dict()方法转换成字典-转成字典res.cookies.get_dict()#使用session发送请求,cookie自动携带sess......
  • 7.10 requests的高级使用
    1. 自动携带cookie和session对象header={'Referer':'http://www.aa7a.cn/user.php?&ref=http%3A%2F%2Fwww.aa7a.cn%2F','User-Agent':'Mozilla/5.0(WindowsNT10.0;Win64;x64)AppleWebKit/537.36(KHTML,likeGecko)Chrome/114......
  • ,软件运行监听地址 ,扫码登录,爬虫介绍,requests模块介绍和快速使用,get请求携带参数,编码
    补充#软件运行,监听地址127.0.0.1 只能访问127.0.0.1localhost不能用本机ip地址访问,外部所有人都不能访问你0.0.0.0 127.0.0.1localhost本机ip地址访问同一个局域网内,都可以通过ip地址访问#本地host解析 输入网址---》www.baidu.com---->找本地host文......
  • org.apache.poi.openxml4j.exceptions.InvalidOperationException: Can't open the sp
    环境和所需包:      1,JDK1.5      2,poi-3.5-FINAL-20090928.jar,           poi-contrib-3.5-FINAL-20090928.jar,           poi-ooxml-3.5-FINAL-20090928.jar,           poi-scratchpad-3.5-FINAL-20090928.jar,        ......
  • 7.6 爬虫基础知识学习 requests的使用
    1.requests的快速使用 /1爬虫定义:可见即可爬/2安装resquests模块正确路径下输入pipinstallrequests/3用requests发送get请求importrequests#res是响应对象就是http响应python包装成了对象(响应头,响应体等)res=requests.get('https://www.cnblogs.com/abc6838......