华为云服务治理—隔离仓的作用

电子说

1.3w人已加入

描述

服务治理通常是指通过限流、熔断等手段,保障微服务的可靠运行,即运行时治理。更加宽泛的服务治理还包括微服务持续集成(开源软件管理、自动化测试等),微服务部署最佳实践(滚动升级、灰度发布等),微服务可观测性能力(日志、监控、告警等)构建等。

  微服务治理专题主要探讨运行时治理。隔离仓是适用于大部分故障模式,简单有效的治理策略,本章介绍隔离仓的原理和作用。

隔离仓的定义和作用

  业务请求的处理都会占用系统资源,包括CPU、内存、线程池、连接池等。隔离仓是一种限制业务请求对系统资源占用的服务治理策略,防止单个业务请求或者单个微服务实例过多的占用系统资源,对其他业务请求以及系统总体的性能产生严重影响。

  线程池是治理策略应用最广泛的系统资源,通常所有请求都在一个共享的线程池处理,常见的隔离仓实现,都是限制请求对线程池的过多占用。本文以 Spring Cloud Huawei 为例,演示其隔离仓在两种故障场景下的作用。

  • 场景一

  微服务A调用微服务B,A和B分别有M个实例,模拟N个并发客户端连续不断的请求A。然后给B扩容1个实例。观察应用治理策略和不应用策略的情况下,时延和TPS的变化情况。

  • 场景二

  微服务A调用微服务B,A和B分别有M个实例,B有两个接口 X 和 Y, 其中X处理100ms,Y处理500 ms,模拟N 个并发客户端通过A连续请求X接口,N 个并发客户端通过A连续请求Y接口。观察应用治理策略和不应用策略的情况下,时延和TPS的变化情况。

Spring Cloud Huawei客户端隔离仓的工作原理和效果

  Spring Cloud Huawei 客户端隔离仓 的主要作用是限制一个实例、或者一个实例的某个接口最大并发数,当一个实例的最大并发处理大于设置的阈值maxConcurrentCalls的时候,后续请求会在当前线程等待maxWaitDuration时间,如果这段时间有请求处理完毕,那么后续请求会继续处理,否则就会被丢弃,返回408错误。

  Spring Cloud Huawei 服务端隔离仓 的主要作用是限制一个接口的最大并发数,当一个接口的最大并发处理大于设置的阈值maxConcurrentCalls的时候,后续请求会在当前线程等待maxWaitDuration时间,如果这段时间有请求处理完毕,那么后续请求会继续处理,否则就会被丢弃,返回408错误。

  • 场景一

  微服务A的隔离仓配置:

servicecomb:

matchGroup:

allOperation: |

  matches:

    - apiPath:

        prefix: "/"
instanceBulkhead:

## 隔离仓限制正在处理的请求数为20个,新来的请求等待1000毫秒没有获取到

## 许可,将被拒绝。

allOperation: |

  maxConcurrentCalls: 20

  maxWaitDuration: 1000

为了匹配测试用例,设置微服务A的线程池大小为20

server:

tomcat:

threads:

  max: 20

  minSpare: 20

  微服务A调用微服务B,A和B分别有1个实例,模拟40个并发客户端连续不断的请求A。然后给B扩容1个实例。观察应用治理策略和不应用策略的情况下,时延和TPS的变化情况。

测试结果:

不使用隔离仓:

Total time:121852

Success count:200000

Timeout count:0

Error count:0

Average Latency:24

|(10,7942)||(20,90667)||(50,93017)||(100,7041)||(200,1151)||(500,173)||(1000,9)|

使用隔离仓:

Total time:112440

Success count:200000

Timeout count:0

Error count:0

Average Latency:22

|(10,8683)||(20,100275)||(50,86137)||(100,4106)||(200,679)||(500,120)||(1000,0)|

  从上述结果可以看出使用隔离仓的情况下,时延大于200ms的请求明显减少。 这个结果说明隔离仓的使用并没有降低系统的处理性能,甚至可能带来一些性能的改善,减少时延偏差较大的请求数量。上述测试场景,并没有演示新启动实例导致故障的场景。如果需要模拟这种场景,可以考虑微服务A部署10个实例,并且采用500个并发客户端访问。

  • 场景二

微服务A的隔离仓配置:

servicecomb:

matchGroup:

allOperation: |

  matches:

    - apiPath:

        # 对耗时的接口配置隔离仓

        prefix: "/benchmark/delay/z100"
instanceBulkhead:

## 隔离仓限制正在处理的请求数为20个,新来的请求等待1000毫秒没有获取到

## 许可,将被拒绝。

allOperation: |

maxConcurrentCalls: 20

maxWaitDuration: 1000
# 为了匹配测试用例,设置微服务A的线程池大小为40
server:

tomcat:

threads:

  max: 40

  minSpare: 40

  微服务A调用微服务B,A和B分别有1个实例,B有两个接口 X 和 Y, 其中X处理1ms,Y处理100 ms,模拟20 个并发客户端通过A连续请求X接口,20 个并发客户端通过A连续请求Y接口。观察应用治理策略和不应用策略的情况下,时延和TPS的变化情况。

测试结果:

不使用隔离仓:

Total time:69029

Success count:40000

Timeout count:0

Error count:0

Average Latency:68

|(10,2175)||(20,12078)||(50,5727)||(100,17)||(200,20003)||(500,0)||(1000,0)||(10000,0)|

使用隔离仓:

Total time:107354

Success count:40000

Timeout count:0

Error count:0

Average Latency:106

|(10,2217)||(20,14264)||(50,3506)||(100,7)||(200,15738)||(500,4268)||(1000,0)||(10000,0)|

  从上述结果可以看出使用隔离仓的情况下,时延小于20ms的请求有所增加,但是时延超过500ms的请求增加更加明显。这是因为测试场景属于IO密集型场景,使用隔离仓,降低了Y接口的并发度,大量请求排队,导致整体的时延大幅增长。下面把客户端隔离仓去掉,改为服务端隔离仓,再看看效果。

微服务B的隔离仓配置:

servicecomb:

matchGroup:

allOperation: |

matches:
- apiPath:
# 对耗时的接口配置隔离仓

prefix: "/benchmark/delay/z100"

bulkhead:

## 隔离仓限制正在处理的请求数为20个,新来的请求等待1000毫秒没有获取到

## 许可,将被拒绝。

allOperation: |

maxConcurrentCalls: 10

maxWaitDuration: 1000
# 为了匹配测试用例,设置微服务B的线程池大小为20

server:

tomcat:

threads:

max: 20

minSpare: 20

  微服务A调用微服务B,A和B分别有1个实例,B有两个接口 X 和 Y, 其中X处理1ms,Y处理100 ms,模拟20 个并发客户端通过A连续请求X接口,20 个并发客户端通过A连续请求Y接口。观察应用治理策略和不应用策略的情况下,时延和TPS的变化情况。

测试结果:

不使用隔离仓:

Total time:110685

Success count:40000

Timeout count:0

Error count:0

Average Latency:109

|(10,160)||(20,1207)||(50,4378)||(100,14091)||(200,19906)||(500,258)||(1000,0)||(10000,0)|

使用隔离仓:

Total time:214565

Success count:40000

Timeout count:0

Error count:0

Average Latency:213

|(10,46)||(20,734)||(50,279)||(100,3941)||(200,14972)||(500,19995)||(1000,33)||(10000,0)|

  从上述结果可以看出使用隔离仓的情况下,平均时延和性能同样会下降。我们适当调整下隔离仓的限制,快速丢弃一些请求:

servicecomb:

matchGroup:

allOperation: |

matches:

- apiPath:
  
  # 对耗时的接口配置隔离仓

prefix: "/benchmark/delay/z100"


bulkhead:

## 隔离仓限制正在处理的请求数为20个,新来的请求等待1000毫秒没有获取到

## 许可,将被拒绝。

allOperation: |

maxConcurrentCalls: 10

maxWaitDuration: 10
# 为了匹配测试用例,设置微服务B的线程池大小为20

server:

tomcat:


threads:

max: 20

minSpare: 20

使用隔离仓的测试结果:

Total time:68189

Success count:22733

Timeout count:1

Error count:17266

Average Latency:115

|(10,53)||(20,2096)||(50,19470)||(100,13025)||(200,3885)||(500,1361)||(1000,109)||(10000,1)|

  上述结果可以看出,快速丢弃请求的情况下,时延小于50ms的请求大于20000个。隔离仓保证了处理很快的接口能够得到快速成功执行,前提条件是处理很慢的接口不占用资源,快速失败。

隔离仓总结

  隔离仓的使用,在计算密集型场景下,对系统的性能影响很小,甚至可以起到一定的性能改善作用。在IO密集型场景下,由于隔离仓降低了请求的并发执行线程,会导致吞吐量降低和时延增加。

  也可以看出,在IO等待比较长的情况下,系统的吞吐量和系统的可靠性是两个没法同时满足的目标,如果要保证成功率不降低,并且吞吐量增加,那么势必增加业务线程等系统资源占用,从而对系统整体的可靠性产生影响。对于耗时的请求,只能通过快速丢弃超过资源使用限制的部分,才能够保证系统吞吐量不下降,并且避免产生系统性的全局功能影响。因此,系统应该合理的设计部分耗时请求的最大并发,在超过这些指标的时候,快速丢弃多余的请求。过度追求耗时请求的吞吐量而扩大线程池、连接池等,是很多应用系统最常见的设计误区。

审核编辑 黄宇

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分