首页 > 其他分享 >aiohttp初识(请求&响应)

aiohttp初识(请求&响应)

时间:2024-05-17 13:42:21浏览次数:11  
标签:http aiohttp get resp 初识 响应 session async

aiohttp初识(请求&响应) 

  aiohttp(用于asyncio和Python的异步HTTP客户端/服务器)初识

1|0aiohttp客户端使用

用于asyncio和Python的异步HTTP客户端/服务器:Asynchronous HTTP Client/Server for asyncio and Python.

1|1发起请求

让我们从导入aiohttp模块开始:

import aiohttp

好啦,我们来尝试获取一个web页面。比如我们来获取下GitHub的时间轴。

async with aiohttp.ClientSession() as session: async with session.get('https://api.github.com/events') as resp: print(resp.status) print(await resp.text())

我们现在有了一个会话(session)对象,由ClientSession对象赋值而来,还有一个变量resp,它其实是ClientResponse对象。我们可以从这个响应对象中获取我们任何想要的信息。协程方法ClientSession.get()的主要参数接受一个HTTP URL。

发起HTTP POST请求我们可以使用协程方法ClientSession.post():

session.post('http://httpbin.org/post', data=b'data')

其他的HTTP方法也同样支持:

session.put('http://httpbin.org/put',data=b'data') session.delete('http://httpbin.org/delete') session.head('http://httpbin.org/get') session.options('http://httpbin.org/get') session.patch('http://httpbin.org/patch', data=b'data')

1|0注意:

不要为每个请求都创建一个会话。大多数情况下每个应用程序只需要一个会话就可以执行所有的请求。
每个会话对象都包含一个连接池,可复用的连接和持久连接状态(keep-alives,这两个是默认的)可提升总体的执行效率。

1|2发起JSON请求:

每个会话的请求方法都可接受json参数。

async with aiohttp.ClientSession() as session: async with session.post(json={'test': 'object'})

默认情况下会话(session)使用Python标准库里的json模块解析json信息。但还可使用其他的json解析器。可以给ClientSession指定json_serialize参数来实现:

import ujson async with aiohttp.ClientSession(json_serialize=ujson.dumps) as session: async with session.post(json={'test': 'object'})

1|3传递URL中的参数:

你可能经常想在URL中发送一系列的查询信息。如果你手动构建他们,这些信息会以键值对的形式出现在?后面,比如: httpbin.org/get?key=val。请求对象允许你使用dict(字典,python中的数据类型)发送它们,使用params参数即可。例如: 如果你要把 key1=value1,key2=value2放到httpbin.org/get后面,你可以用下面的方式:

params = {'key1': 'value1', 'key2': 'value2'} async with session.get('http://httpbin.org/get', params=params) as resp: assert str(resp.url) == 'http://httpbin.org/get?key2=value2&key1=value1'

看,URL已经被正确的编码啦。
同键不同值的并联字典(MultiDict) 也同样支持。
可使用带有两个tuples(元组,python中的数据类型)的list(列表,python中的数据类型)来构建:

params = [('key', 'value1'), ('key', 'value2')] async with session.get('http://httpbin.org/get', params=params) as r: assert str(r.url) == 'http://httpbin.org/get?key=value2&key=value1'

同样也允许你传递str(字符串)给params,但要小心一些不能被编码的字符。+就是一个不能被编码的字符:

async with session.get('http://httpbin.org/get', params='key=value+1') as r: assert str(r.url) == 'http://httpbin.org/get?key=value+1'

1|0注意:

aiohttp会在发送请求前标准化URL。
域名部分会用IDNA 编码,路径和查询条件会重新编译(requoting)
比如:URL('http://example.com/путь%30?a=%31') 会被转化为URL('http://example.com/%D0%BF%D1%83%D1%82%D1%8C/0?a=1')
如果服务器需要接受准确的表示并不要求编译URL,那标准化过程应是禁止的。
禁止标准化可以使用encoded=True:

await session.get(URL('http://example.com/%30', encoded=True))

1|0警告:

传递params时不要用encode=True,这俩参数不能同时使用。

1|4获取响应内容

我们可以读取服务器的响应内容。想想我们获取GitHub时间轴的例子:

async with session.get('https://api.github.com/events') as resp: print(await resp.text())

这样会打印出类似于下面的信息:

'[{"created_at":"2015-06-12T14:06:22Z","public":true,"actor":{...

aiohttp将会自动解码内容。你可以为text()方法指定编码(使用encoding参数):

await resp.text(encoding='windows-1251')

1|5获取二进制响应内容

你也可以以字节形式获取响应,这样得到的就不是文本了:

print(await resp.read())b'[{"created_at":"2015-06-12T14:06:22Z","public":true,"actor":{...

gzipdefalte传输编码会自动解码。
你也可以使其支持brotli传输编码的解码,只需安装brotlipy即可。

1|6获取JSON响应内容

以防你需要处理JSON数据,内置了一个JSON解码器:

async with session.get('https://api.github.com/events') as resp: print(await resp.json())

如果JSON解码失败,json()方法将会抛出一个异常。你还可以在调用json()时指定编码器和解码器函数。

1|0注意:

这些方法会读出内存中所有响应的内容。如果你要读非常多的数据,考虑使用流式响应方法进行读取。请看之后的文档。

1|7获取流式响应内容

read(), json(), text()等方法使用起来很方便,但也要注意谨慎地使用。上述方法会将所有的响应内容加载到内存。举个例子,如果你要下载几个G的文件,这些方法还是会将所有内容都加载到内存,内存会表示”臣妾做不到啊~”(如果内存不够的话)。作为代替你可以用content属性。content其实是 aiohttp.StreamReader类的实例。gzipdeflate传输编码同样会自动解码。

async with session.get('https://api.github.com/events') as resp: await resp.content.read(10)

一般情况下你可以使用下列模式将内容保存在一个文件中:

with open(filename, 'wb') as fd: while True: chunk = await resp.content.read(chunk_size) if not chunk: break fd.write(chunk)

在使用content读了数据后,就不要在用read(), json(), text()了。

1|8获取请求信息

ClientResponse(客户端响应)对象含有request_info(请求信息),主要是urlheaders信息。 raise_for_status结构体上的信息会被复制给ClientResponseError实例。

1|9自定义Headers

如果你需要给某个请求添加HTTP头,可以使用headers参数,传递一个dict对象即可。
比如,如果你想给之前的例子指定 content-type可以这样:

import jsonurl = 'https://api.github.com/some/endpoint' payload = {'some': 'data'} headers = {'content-type': 'application/json'} await session.post(url, data=json.dumps(payload), headers=headers)

1|10自定义Cookies

发送你自己的cookies给服务器,你可以为ClientSession对象指定cookies参数:

url = 'http://httpbin.org/cookies' cookies = {'cookies_are': 'working'} async with ClientSession(cookies=cookies) as session: async with session.get(url) as resp: assert await resp.json() == {"cookies": {"cookies_are": "working"}}

1|0注意:

访问httpbin.org/cookies 会看到以JSON形式返回的cookies。查阅会话中的cookies请看ClientSession.cookie_jar

1|11发起更复杂的POST请求

一般来说,如果你想以表单形式发送一些数据 - 就像HTML表单。那么只需要简单的将一个dict通过data参数传递就可以。传递的dict数据会自动编码:

payload = {'key1': 'value1', 'key2': 'value2'} async with session.post('http://httpbin.org/post', data=payload) as resp: print(await resp.text()) """ { ... "form": { "key2": "value2", "key1": "value1" }, ... } """

如果你想发送非表单形式的数据你可用str(字符串)代替dict(字典)。这些数据会直接发送出去。
例如,GitHub API v3 接受JSON编码POST/PATCH数据:

import jsonurl = 'https://api.github.com/some/endpoint' payload = {'some': 'data'} async with session.post(url, data=json.dumps(payload)) as resp: ...

1|12发送多部分编码文件(Multipart-Encoded)

上传多部分编码文件:

url = 'http://httpbin.org/post' files = {'file': open('report.xls', 'rb')} await session.post(url, data=files)

你也可以显式地设置文件名,文件类型:

url = 'http://httpbin.org/post' data = FormData() data.add_field('file', open('report.xls', 'rb'), filename='report.xls', content_type='application/vnd.ms-excel') await session.post(url, data=data)

如果你把一个文件对象传递给data参数,aiohttp会自动将其以流的形式上传。查看StreamReader以获取支持的格式信息。

1|0参见:

使用Multipart.

1|13流式上传

aiohttp 支持多种形式的流式上传,允许你直接发送大文件而不必读到内存。

下面是个简单的例子,提供类文件对象即可:

with open('massive-body', 'rb') as f: await session.post('http://httpbin.org/post', data=f)

或者你也可以使用aiohttp.streamer对象:

@aiohttp.streamer def file_sender(writer, file_name=None): with open(file_name, 'rb') as f: chunk = f.read(2**16) while chunk: yield from writer.write(chunk) chunk = f.read(2**16) # 之后你可以使用’file_sender‘传递给data: async with session.post('http://httpbin.org/post', data=file_sender(file_name='huge_file')) as resp: print(await resp.text())

同样可以使用StreamReader对象.

我们来看下如何把来自于另一个请求的内容作为文件上传并计算其SHA1值:

async def feed_stream(resp, stream): h = hashlib.sha256() while True: chunk = await resp.content.readany() if not chunk: break h.update(chunk) stream.feed_data(chunk) return h.hexdigest() resp = session.get('http://httpbin.org/post') stream = StreamReader() loop.create_task(session.post('http://httpbin.org/post', data=stream)) file_hash = await feed_stream(resp, stream)

因为响应对象的content属性是一个StreamReader实例,所以你可以将get和post请求连在一起用:

r = await session.get('http://python.org') await session.post('http://httpbin.org/post', data=r.content)

1|14上传预压缩过的数据

上传一个已经压缩过的数据,需要为Headers中的Content-Encoding指定算法名(通常是deflate或者是zlib).

async def my_coroutine(session, headers, my_data): data = zlib.compress(my_data) headers = {'Content-Encoding': 'deflate'} async with session.post('http://httpbin.org/post', data=data, headers=headers) pass

1|15持久连接(keep-alive), 连接池和cookies共享

ClientSession可以在多个请求之间共享cookies:

async with aiohttp.ClientSession() as session: await session.get( 'http://httpbin.org/cookies/set?my_cookie=my_value') filtered = session.cookie_jar.filter_cookies('http://httpbin.org') assert filtered['my_cookie'].value == 'my_value' async with session.get('http://httpbin.org/cookies') as r: json_body = await r.json() assert json_body['cookies']['my_cookie'] == 'my_value'

你也可以为所有的会话请求设置headers:

async with aiohttp.ClientSession( headers={"Authorization": "Basic bG9naW46cGFzcw=="}) as session: async with session.get("http://httpbin.org/headers") as r: json_body = await r.json() assert json_body['headers']['Authorization'] == 'Basic bG9naW46cGFzcw=='

ClientSession支持持久连接和连接池,可直接使用,不需要额外操作。

1|16安全cookies

ClientSession中的默认的aiohttp.CookiesJar使用的是严苛模式,RFC 2109明确禁止使用ip地址形式的URL携带cookies信息。比如: http://127.0.0.1:80/cookie
这样很好,不过有些时候我们测试时需要允许携带cookies。在aiohttp.CookiesJar中传递unsafe=True来实现这一效果:

jar = aiohttp.CookieJar(unsafe=True)session = aiohttp.ClientSession(cookie_jar=jar)

1|17使用虚假Cookie Jar

有时不想处理cookie。这时可以在会话中使用aiohttp.DummyCookieJar来达到目的。

jar = aiohttp.DummyCookieJar()session = aiohttp.ClientSession(cookie_jar=jar)

1|18使用连接器

想要调整请求的传输层你可以为ClientSession及其同类组件传递自定义的连接器。例如:

conn = aiohttp.TCPConnector()session = aiohttp.ClientSession(connector=conn)

1|0注解:

不要给多个会话对象使用同一个连接器,某一会话对象拥有其所有权。

1|0参见:

查看连接器部分了解更多不同的连接器类型和配置选项信息。

1|19限制连接池的容量

限制同一时间打开的连接数可以传递limit参数:

conn = aiohttp.TCPConnector(limit=30)

这样就将总数限制在30.

默认情况下是100.

如果你不想有限制,传递0即可:

conn = aiohttp.TCPConnector(limit=0)

限制同一时间在同一个端点((host, port, is_ssl) 3者都一样的情况)打开的连接数可指定limit_per_host参数:

conn = aiohttp.TCPConnector(limit_per_host=30)

这样会限制在30.
默认情况下是0(也就是不做限制)。

1|20使用自定义域名服务器

底层需要aiodns支持:

from aiohttp.resolver import AsyncResolver resolver = AsyncResolver(nameservers=["8.8.8.8", "8.8.4.4"]) conn = aiohttp.TCPConnector(resolver=resolver)

1|21为TCP sockets添加SSL控制:

默认情况下aiohttp总会对使用了HTTPS协议(的URL请求)查验其身份。但也可将verify_ssl设置为False让其不检查:

r = await session.get('https://example.com', verify_ssl=False)

如果你需要设置自定义SSL信息(比如使用自己的证书文件)你可以创建一个ssl.SSLContext实例并传递到ClientSession中:

sslcontext = ssl.create_default_context(cafile='/path/to/ca-bundle.crt') r = await session.get('https://example.com', ssl_context=sslcontext)

如果你要验证自签名的证书,你也可以用之前的例子做同样的事,但是用的是load_cert_chain():

sslcontext = ssl.create_default_context( cafile='/path/to/ca-bundle.crt') sslcontext.load_cert_chain('/path/to/client/public/device.pem', '/path/to/client/private/device.jey') r = await session.get('https://example.com', ssl_context=sslcontext)

SSL验证失败时抛出的错误:

aiohttp.ClientConnectorSSLError:

aiohttp.ClientConnectorSSLError: try: await session.get('https://expired.badssl.com/') except aiohttp.ClientConnectorSSLError as e: assert isinstance(e, ssl.SSLError)

aiohttp.ClientConnectorCertificateError:

try: await session.get('https://wrong.host.badssl.com/') except aiohttp.ClientConnectorCertificateError as e: assert isinstance(e, ssl.CertificateError)

如果你需要忽略所有SSL的错误:

aiohttp.ClientSSLError:

aiohttp.ClientSSLError: try: await session.get('https://expired.badssl.com/') except aiohttp.ClientSSLError as e: assert isinstance(e, ssl.SSLError) try: await session.get('https://wrong.host.badssl.com/') except aiohttp.ClientSSLError as e: assert isinstance(e, ssl.CertificateError)

你还可以通过SHA256指纹验证证书:

# Attempt to connect to https://www.python.org # with a pin to a bogus certificate: bad_fingerprint = b'0'*64 exc = None try: r = await session.get('https://www.python.org', fingerprint=bad_fingerprint) except aiohttp.FingerprintMismatch as e: exc = e assert exc is not None assert exc.expected == bad_fingerprint # www.python.org cert's actual fingerprint assert exc.got == b'...'

注意这是以DER编码的证书的指纹。如果你的证书是PEM编码,你需要转换成DER格式:

openssl x509 -in crt.pem -inform PEM -outform DER > crt.der

1|0注解:

提示: 从16进制数字转换成二进制字节码,你可以用binascii.unhexlify().

TCPConnector中设置的verify_ssl, fingerprint和ssl_context都会被当做默认的verify_ssl, fingerprint和ssl_context,ClientSession或其他同类组件中的设置会覆盖默认值。

1|0警告:

verify_ssl 和 ssl_context互斥的。
MD5SHA1指纹虽不赞成使用但是是支持的 - 这俩是非常不安全的哈希函数。

1|22Unix 域套接字

如果你的服务器使用UNIX域套接字你可以用UnixConnector:

conn = aiohttp.UnixConnector(path='/path/to/socket') session = aiohttp.ClientSession(connector=conn)

1|23代理支持

aiohttp 支持 HTTP/HTTPS形式的代理。你需要使用proxy参数:

async with aiohttp.ClientSession() as session: async with session.get("http://python.org", proxy="http://some.proxy.com") as resp: print(resp.status)

同时支持认证代理:

async with aiohttp.ClientSession() as session: proxy_auth = aiohttp.BasicAuth('user', 'pass') async with session.get("http://python.org", proxy="http://some.proxy.com", proxy_auth=proxy_auth) as resp: print(resp.status)

也可将代理的验证信息放在url中:

session.get("http://python.org", proxy="http://user:[email protected]")

requests(另一个广受欢迎的http包)不同,aiohttp默认不会读取环境变量中的代理值。但你可以通过传递trust_env=True来让aiohttp.ClientSession读取HTTP_PROXYHTTPS_PROXY环境变量中的代理信息(不区分大小写)。

async with aiohttp.ClientSession() as session: async with session.get("http://python.org", trust_env=True) as resp: print(resp.status)

1|24查看响应状态码

我们可以查询响应状态码:

async with session.get('http://httpbin.org/get') as resp: assert resp.status == 200

1|25获取响应头信息

我们可以查看服务器的响应信息, ClientResponse.headers使用的数据类型是CIMultiDcitProxy:

>>> resp.headers {'ACCESS-CONTROL-ALLOW-ORIGIN': '*', 'CONTENT-TYPE': 'application/json', 'DATE': 'Tue, 15 Jul 2014 16:49:51 GMT', 'SERVER': 'gunicorn/18.0', 'CONTENT-LENGTH': '331', 'CONNECTION': 'keep-alive'}

这是一个特别的字典,它只为HTTP头信息而生。根据 RFC 7230,HTTP头信息中的名字是不分区大小写的。同时也支持多个不同的值对应同一个键。

所以我们可以通过任意形式访问它:

>>> resp.headers['Content-Type'] 'application/json' >>> resp.headers.get('content-type') 'application/json'

所有的header信息都是由二进制数据转换而来,使用带有surrogateescape选项的UTF-8编码方式(surrogateescape是一种错误处理方式,详情看))。大部分时候都可以很好的工作,但如果服务器使用的不是标准编码就不能正常解码了。从 RFC 7230的角度来看这样的headers并不是合理的格式,你可以用ClientReponse.resp.raw_headers来查看原形:

>>> resp.raw_headers ((b'SERVER', b'nginx'), (b'DATE', b'Sat, 09 Jan 2016 20:28:40 GMT'), (b'CONTENT-TYPE', b'text/html; charset=utf-8'), (b'CONTENT-LENGTH', b'12150'), (b'CONNECTION', b'keep-alive'))

1|26获取响应cookies:

如果某响应包含一些Cookies,你可以很容易地访问他们:

url = 'http://example.com/some/cookie/setting/url' async with session.get(url) as resp: print(resp.cookies['example_cookie_name'])

1|0注意:

响应中的cookies只包含重定向链中最后一个请求中的Set-Cookies头信息设置的值。如果每一次重定向请求都收集一次cookies请使用 aiohttp.ClientSession对象.

1|27获取响应历史

如果一个请求被重定向了,你可以用history属性查看其之前的响应:

>>> resp = await session.get('http://example.com/some/redirect/') >>> resp <ClientResponse(http://example.com/some/other/url/) [200]> >>> resp.history (<ClientResponse(http://example.com/some/redirect/) [301]>,)

如果没有重定向或allow_redirects设置为False,history会被设置为空。

1|28使用WebSockets

aiohttp提供开箱即用的客户端websocket。
你需要使用aiohttp.ClientSession.ws_connect()协程对象。它的第一个参数接受URL,返回值是ClientWebSocketResponse,这样你就可以用响应的方法与websocket服务器进行通信。

session = aiohttp.ClientSession() async with session.ws_connect('http://example.org/websocket') as ws: async for msg in ws: if msg.type == aiohttp.WSMsgType.TEXT: if msg.data == 'close cmd': await ws.close() break else: await ws.send_str(msg.data + '/answer') elif msg.type == aiohttp.WSMsgType.CLOSED: break elif msg.type == aiohttp.WSMsgType.ERROR: break

你只能使用一种读取方式(例如await ws.receive() 或者 async for msg in ws:)和写入方法,但可以有多个写入任务,写入任务也是异步完成的(ws.send_str('data'))。

1|29设置超时

默认情况下每个IO操作有5分钟超时时间。可以通过给ClientSession.get()及其同类组件传递timeout来覆盖原超时时间:

async with session.get('https://github.com', timeout=60) as r: ...

None 或者0则表示不检测超时。
还可通过调用async_timeout.timeout上下文管理器来为连接和解析响应内容添加一个总超时时间:

import async_timeout with async_timeout.timeout(0.001): async with session.get('https://github.com') as r: await r.text()

1|0注意:

超时时间是累计的,包含如发送情况,重定向,响应解析,处理响应等所有操作在内…

1|30愉快地结束:

当一个包含ClientSessionasync with代码块的末尾行结束时(或直接调用了.close()),因为asyncio内部的一些原因底层的连接其实没有关闭。在实际使用中,底层连接需要有一个缓冲时间来关闭。然而,如果事件循环在底层连接关闭之前就结束了,那么会抛出一个 资源警告: 存在未关闭的传输(通道)(ResourceWarning: unclosed transport),如果警告可用的话。
为了避免这种情况,在关闭事件循环前加入一小段延迟让底层连接得到关闭的缓冲时间。
对于非SSL的ClientSession, 使用0即可(await asyncio.sleep(0)):

async def read_website(): async with aiohttp.ClientSession() as session: async with session.get('http://example.org/') as response: await response.read() loop = asyncio.get_event_loop() loop.run_until_complete(read_website()) # Zero-sleep to allow underlying connections to close loop.run_until_complete(asyncio.sleep(0)) loop.close()

对于使用了SSL的ClientSession, 需要设置一小段合适的时间:

... # Wait 250 ms for the underlying SSL connections to close loop.run_until_complete(asyncio.sleep(0.250)) loop.close()

合适的时间因应用程序而异。

当asyncio内部的运行机制改变时就可以让aiohttp去等待底层连接关闭在退出啦,上面这种额外的方法总会废弃啦。你也可以跟进问题#1925来参与改进。


 

标签:http,aiohttp,get,resp,初识,响应,session,async
From: https://www.cnblogs.com/xiao-xue-di/p/18197640

相关文章

  • 初识上位机(下):C#读写PLC数据块数据
    大家好,我是Edison。作为一个工业自动化领域的程序员,不懂点PLC和上位机,貌似有点说不过去。这里我用两篇小文带你快速进入上位机开发领域。后续,我会考虑再出一个系列文章一起玩工控上位机。上一篇:搭建PLC模拟仿真环境复习一下在上一篇中,我们通过PLCSIMAdvanced软件创建了一个虚......
  • vue的响应式数据1
     所花时间(包括上课): 1 h左右代码量(行): 200   左右搏客量(篇):1了解到的知识点: 用ref定义响应式数据备注(其他): ref基本类型的响应式数据首先需要import{ref}from'vue'哪个需要响应式,哪一个加ref('name')在函数中调用响应式数据的时候,需要......
  • 研发数据在企业内部多重传输场景,怎样才能有效响应?
    研发数据因行业不同包含的种类各异,主要有设计和仿真数据、研发投入、进展和成果数据、生产过程数据、维护和保养数据、质量数据等,企业研发数据对企业而言具有至关重要的意义。特别是以研发为核心业务及定位的企业,如半导体IC设计、生物制药、科研单位等,研发数据就是其最核心的数......
  • IceRPC之传入响应和拦截器->快乐的RPC
    作者引言.Net8.0下的新RPC很高兴啊,我们来到了IceRPC之传入响应和拦截器->快乐的RPC,基础引导,让自已不在迷茫,快乐的畅游世界。传入响应Incomingresponse了解如何演绎传入的响应。收到传入响应调用器invoker异步返回传入响应。该传入响应是由连接从对等点接收响应......
  • 初识上位机(上):搭建PLC模拟仿真环境
    大家好,我是Edison。作为一个工业自动化领域的程序员,不懂点PLC和上位机,貌似有点说不过去。这里我用两篇小文带你快速进入上位机开发领域。后续,我会考虑再出一个系列文章一起玩工控上位机。什么是上位机上位机,通常是指在数据采集与控制系统中位于较高层级、具有较强数据处理能力......
  • Java响应式编程
    提纲1、响应式编程ReactiveProgramming2、ReactiveStreams3、Reactor和RxJava1、响应式编程ReactiveProgramming为了解决异步编程中出现的各种问题,程序员们提出了各种的方法和手段去解决这些问题,这些方法和手段就被称为ReactiveProgramming。ReactiveProgramming是一......
  • drf之请求和响应
    drf之请求和响应一、drf之请求【1】源码分析#Request类的对象fromrest_framework.requestimportRequest#1新的request#2request.data前端传入的请求体中得数据,无论那种编码#3用起来跟之前一样#4老的request在request._request【2】配置视图类能处理的编......
  • RetryableException: Read timed out executing导致服务假死无响应
    最近发现Plan这个微服务经常会无响应,后来发现是task微服务会调用plan的某个接口,经常报错如下异常,然后timeout后又30秒再次发起重试而这个业务处理时间1分钟-2小时都有可能所以把plan微服务线程池占满导致无响应2024-05-1314:27:00.282N/A,b1f2a3468b14468abef240bfeddd8b95,0......
  • CPLEX 初识 -- JAVA实现
    CPLEX初识--JAVA实现本文参考《运筹优化常用模型、算法及案例实战》,同时也是笔者用来记录自己所学知识,如有问题欢迎交流讨论~1环境配置&模型建立需要装配jar包及配置VMoptions,如下图所示:-Djava.library.path="/Applications/CPLEX_Studio2211/java"一般使用IloCple......
  • 初识springmvc
    什么是MVC?MVC的全名是ModelViewController,是模型(model)-视图(view)-控制器(controller)的缩写,是一种软件设计典范。它是用一种业务逻辑、数据与界面显示分离的方法来组织代码,将众多的业务逻辑聚集到一个部件里面,在需要改进和个性化定制界面及用户交互的同时,不需要重新编写业......