首页 > 其他分享 >ServiceMesh 5:异常重试和超时保护提升服务可用性

ServiceMesh 5:异常重试和超时保护提升服务可用性

时间:2024-12-12 10:10:49浏览次数:7  
标签:请求 svc 重试 实例 治理 ServiceMesh 超时

ServiceMesh系列

1 背景

在复杂的互联网场景中,不可避免的会出现请求失败或者超时的情况。
从程序的的响应结果来看,一般是Response返回5xx状态的错误;从用户的角度去看,一般是请求结果不符合预期,即操作失败(如转账失败、下单失败、信息获取不到等)。
偶发的不可避免的5xx请求错误,产生的原因有很多种,比如:

  • 网络延迟或者抖动
  • 服务器资源不足(CPU、内存走高、连接池满)
  • 服务器故障
  • 符合某些特定条件下的服务程序bug(大都非必现)
    image

2 系统稳定性等级划分

大部分服务容忍低频、偶发的5xx错误,并使用可用性级别来衡量系统的健壮性,级别系数越高,健壮性越好,如下:

等级描述 故障时长(年) 可用行等级
基本可用性 87.6h 99%
较高可用 8.8h 99.9%
非常高的可用性(大部分故障可自动恢复) 52m 99.99%
极高可用性 5m 99.999%

对于强系统可靠性、强结果预期性 要求的系统,如转账、下单、付款,即使微小的可用性降级也是不可接受,用户强烈需要接收到正确的结果。
可以想想你付款的时候发现付款失败有多么惊慌,订外卖的时候获取信息失败有多么沮丧,这些都是用户痛点。

3 请求异常的治理手段

3.1 采用异常重试实现故障恢复

通过上面的故障原因分析我们知道,排除了必现的程序逻辑错误,大部分环境导致的错误是可以通过重试进行恢复的。
治理的手段主要是采用 异常重试 来实现的,通过重试负载到健康实例上(实例越多重试成功率越高),降低用户感知到的故障频率。
image

执行过程说明

  • 这边以示例服务 Svc-A 向 Svc-B 发起访问为例子。
  • 第1次执行失败之后,根据策略,间隔25ms之后发起第2次请求。
  • 会看到有两条日志,日志的trace_id 一致,说明他是同一个调用过程(1个调用过程,包含2次请求,首发1次与重试1次)
  • 请求方为同一个实例 Svc-A-Instance1,说明请求发起方一致。
  • 被请求方发生了变动,说明调度到新的实例(Svc-B-Instance1 到 Svc-B-Instance2)。
  • 返回正常的 200 。

因为我们的负载均衡模式默认是RR,所以实例越多,实际上重试成功的概率会越高。比如有50个实例,其中一个实例出故障,导致执行返回5xx,那么第二次请求的时候一般来说会有 49/50 的成功概率。如下图:
image

3.2 Istio策略实现

注释比较清晰了,这边就不解释了。

# VirtualService
apiVersion: networking.istio.io/v1beta1
kind: VirtualService
metadata:
  name: xx-svc-b-vs
  namespace: kube-ns-xx
spec:
  hosts:
  - svc_b.google.com # 治理发往 svc-b 服务的流量
  http:
  - match:  # 匹配条件的流量进行治理
    - uri:
        prefix: /v1.0/userinfo   # 匹配路由前缀为 /v1.0/userinfo 的,比如 /v1.0/userinfo/1305015
    retries:
      attempts: 1  # 重试一次
      perTryTimeout: 1s  # 首次调用和每次重试的超时时间
      retryOn: 5xx  # 重试触发的条件
    timeout: 2.5s  #  请求整体超时时间为2.5s,无论重试多少次,超过该时间就断开。
    route:
    - destination:
        host: svc_b.google.com
      weight: 100
  - route:  # 其他未匹配的流量默认不治理,直接流转
    - destination:
        host: svc_c.google.com
      weight: 100

4 请求超时的治理手段

4.1 请求超时的主要原因

  • 网络延迟或者抖动或者丢包,从而导致响应时间变长。
  • 容器甚至云主机资源瓶颈情况:如CPU使用率过高、内存使用是否正常、磁盘IO压力情况、网络时延情况等资源使用情况异常,也可能导致响应时间变长。
  • 负载均衡性问题:多实例下分配的流量不均衡,目前看云基础场景,这个情况不多见。
  • 突发洪峰请求:如流不存在非预期的流量,作为主打对内的项目,突发洪峰请求主要还是程序的调用不合理或者程序bug(内存泄露、循环调用、缓存击穿等)。
    image
    单个副本,长耗时容易造成队列堆积,对资源损耗很大,快速的释放或者调度开是一个比较好的办法,是一种普遍可接受的降级方案,否则超时阻塞会导致服务长时间不可用。
    而且这种影响是水平扩散的,同服务上的其他功能也会被争抢资源。

4.2 Istio的治理手段

4.2.1 超时重试

对服务的核心接口进行细粒度配置,具体接口超时时间应该在 ≥ TP 99.9(满足999‰的网络请求所需要的最低耗时)的耗时,可以考虑重试。
image

4.2.2 超时熔断

通过指定超时时间对请求进行断连,达到降级的目的。避免长时间队列阻塞,导致雪崩沿调用向上传递,造成整个链路崩溃。
image

4.3 Istio策略实现

关注下方代码中的两个星号 ★ 的属性:

  • perTryTimeout 指的是首次调用和每次重试的超时时间,超过这个时间,说明请求大概率已经pending住了,则进行重试,争取落到其他健康实例上,更快拿回的结果。
  • timeout 指的是请求整体超时时间为2.5s,无论重试多少次,超过该时间就断开,这是一种保护策略,避免过度重试或者长时间Pending导致服务恶化甚至雪崩。
# VirtualService
apiVersion: networking.istio.io/v1beta1
kind: VirtualService
metadata:
  name: xx-svc-b-vs
  namespace: kube-ns-xx
spec:
  hosts:
  - svc_b.google.com # 治理发往 svc-b 服务的流量
  http:
  - match:  # 匹配条件的流量进行治理
    - uri:
        prefix: /v1.0/userinfo   # 匹配路由前缀为 /v1.0/userinfo 的,比如 /v1.0/userinfo/1305015
    retries:
      attempts: 1  # 重试一次
      perTryTimeout: 1s  #  ★ 首次调用和每次重试的超时时间
      retryOn: 5xx  # 重试触发的条件
    timeout: 2.5s  #  ★ 请求整体超时时间为2.5s,无论重试多少次,超过该时间就断开。
    route:
    - destination:
        host: svc_b.google.com
      weight: 100
  - route:  # 其他未匹配的流量默认不治理,直接流转
    - destination:
        host: svc_c.google.com
      weight: 100

5 总结

本文我们介绍了使用服务网格进行异常重试和超时熔断的治理。Istio提供了丰富的治理能力,后续的章节我们逐一了解下故障注入、熔断限流、异常驱逐等高级用法。

标签:请求,svc,重试,实例,治理,ServiceMesh,超时
From: https://www.cnblogs.com/wzh2010/p/18031109

相关文章

  • nginx设置接口超时不生效问题
    nginx设置接口超时不生效问题只需在http,server,location,这三个任意一处地方设置proxy_read_timeout600s;即可参数值单位有s-秒,m-分钟,h-小时,不写单位默认为秒若不生效,可能是用restart命令重启nginx,配置文件未生效,此时可以先将nginx停止,再重新启动即可此时如果还不行,就不是ng......
  • SSH连接超时
    timedoutwaitingforinput:auto-logout一般是由于设置了TMOUT环境变量所致,此变量可设置于:/etc/profile,/etc/bashrc,/.bashrc,/.bash_profile等文件中。可以通过在当前会话执行env|grepTMOUT查看当前生效值。注释此设置以避免连接超时。也可能是由于网络中断、防火墙或网......
  • 接口超时问题汇总
    接口超时问题汇总1.网络异常1.1网络抖动网络丢包可能会导致接口超时。2.1带宽被占满服务器带宽指的是在一定时间内传输数据的大小,比如:1秒传输了10M的数据。所以对于有些高并发请求场景,需要评估一下是否需要增加服务器带宽。2.线程池满了在java8之前可以通过实现Callable接口......
  • 接口超时日志排查分析-BeanUtils对象复制6秒及类型不一致复制异常,复制null属性被覆盖
    接口超时日志排查分析-BeanUtils对象复制6秒及类型不一致复制异常,复制null属性被覆盖解决,常见Bean拷贝框架的性能对比1.接口超时日志排查分析-BeanUtils对象复制6秒1.查询日志命令,分析接口的请求及响应的时长catproJectDock.log|grep-E"请求开始时间|请求正常消耗时间">>......
  • 解决.NET中调用第三方HTTP API时的超时与断开问题
    在.NET中调用第三方HTTPAPI时,可能会遇到超时和断开连接等问题,这些问题可能是由于网络延迟、第三方服务响应慢、服务器负载高等原因引起的。解决这些问题通常涉及以下几个方面:调整HTTP请求的超时设置、增强异常处理、使用重试机制、优化请求的资源管理等。以下是一些常见的解......
  • http请求超时, 底层发生了什么?
    业务方反应调用接口超时,但是在服务端监控并没有看到5xx异常,于是我们模拟一下请求超时时发生了什么?1.openresty模拟长耗时服务端延迟5s响应error_loglogs/error.log;http{server{listen80;charsetutf-8;location/reqtimeout{......
  • MYSQL数据库配置登录超时退出功能
    my.ini配置文件添加如下配置:[mysqld]plugin_load_add=connection_control.dllconnection_control=FORCE_PLUS_PERMANENTconnection_control_failed_login_attempts=FORCE_PLUS_PERMANENTconnection_control_failed_connections_threshold=3connection_control_max_connec......
  • flink学习(13)—— 重试机制和维表join
    重试机制当任务出现异常的时候,会直接停止任务——解决方式,重试机制1、设置checkpoint后,会给任务一个重启策略——无限重启2、可以手动设置任务的重启策略代码设置//开启checkpoint后,默认是无限重启,可以设置该值表示不重启env.setRestartStrategy(RestartStrategies.noRe......
  • 多线程篇-7--线程通信(等待/通知机制,等待/超时机制,CountdownLatch,CyclicBarrier,Blockin
    1、线程为什么要通信?多线程的目的是多条线程执行不同的逻辑业务从而能够提升业务整体的响应速度,如果线程都是孤零零的执行,不同的逻辑业务就不能最终汇聚成一个完整的业务,那么多线程也就失去了意义,这就是为什么要有线程间通信的存在。线程间的通信可以是主、子线程通信,也可......
  • go 编译超时解决
    转载请注明出处:在编译go项目时,遇到依赖下载超时,异常输出如下:CGO_ENABLED=0GOOS=linuxGO111MODULE=ongobuild-a-ldflags'-extldflags"-static"'-o../../bin/gobmp./gobmp.gogo:google.golang.org/protobuf@v1.30.0:unrecognizedimportpath"google.gol......