面试官:高并发下重启服务,接口调用老是超时,你有什么解决办法?

艾小仙

共 3395字,需浏览 7分钟

 ·

2021-06-16 11:50


今天文章内容来自一位朋友出去面试碰到的问题:

「了解 Dubbo 服务预热过程吗?详细聊聊它的原理。」

这个问题朋友没有很好答出来,因为之前也没了解过。说实话一开始我只是大概知道这块预热的代码位于何处,但是原理什么的还是没有仔细去了解。

所以这次仔细去看了下代码,查了一些 Github 这块代码提交记录,终于搞明白这块的原理,跟大家一起分享下。

预热

首先我们来看下什么是服务预热?

先举一个生活的中的例子,买过新车的同学应该知道新车都有一个磨合期的,大概开个一两千公里之后,才能达到最佳的状态。

其实服务预热也是这个意思,服务刚启动的时候将存在一段「磨合期」,这段期间服务运行状态没有达到最佳,如果一下子将服务流量提升到平常的状态,可能会存在大量的请求超时或者瞬间将系统压垮。

所以服务刚启动的时候我们要慢慢增加的流量,直到一段时间后增加到阈值的上限,给系统一个「预热过程」,让其运行状态到达最佳。

那为什么服务刚启动的时候系统状态没有到达最佳状态?

大概原因其实如下:

Java 应用存在一个类加载的过程,而这个过程是按需加载的。即服务刚启动时候,JVM 只加载了启动过程必需的类。

我们自己所需要的类,直到服务被调用之后才会被真正的加载。

另外对于一些「热点代码」,JVM 将会使用 JIT 编译器编译成本地代码,提高运行速度。

上面两个过程是出于 JVM 系统层面的影响。

除此之外,我们服务系统中可能会需要一些缓存资源。刚启动的时候,由于资源不存在,服务需要去加载这些资源。

Dubbo 预热实现方式

好了,了解完预热是咋回事后,我们回到正题,来看下 Dubbo 是如何实现预热的。

首先我们来看下 Dubbo 服务模型:

服务提供者启动之后将会把节点相关信息注册到注册中心,服务消费者通过注册中心就可以及时获取所有的服务节点。

当服务消费者调用服务时,内部将会通过负载均衡组件选择一个节点,进行服务调用。

如上图所示,假设 B 节点服务刚启动,其需要一个预热过程,这就需要服务消费者逐渐将流量分发给 B 节点。

下面我们就从 Dubbo 源码出发,观察服务预热具体实现方式,具体源码位于 AbstractLoadBalance#getWeight

ps: 当前源码 Dubbo 版本为2.7.4,低于这个版本代码实现存在少量差异,详情见下文。

这段代码主要分为三步:

  1. 获取服务提供者启动时间 timestamp
  2. 使用当前时间减去服务提供者启动时间,计算服务提供者已运行时间 uptime
  3. 根据已运行时间动态计算服务预热过程的权重

第三步动态权重计算方法如下:

这里计算方式其实很简单,简单来说服务运行时间越久,权重越高,直到正常权重。

假如服务提供者已运行 1 分钟,那么 weight 最终结果为 10 。

假如服务提供者已运行 5 分钟,那么 weight 最终结果为 50 。

假如服务提供者已运行 11 分钟,超过默认预热时间的阈值 10分 钟,那么将不会再计算,直接返回 weight 默认权重。

这里我们需要注意的是,Dubbo 默认提供五种负载均衡的策略:

  • Random LoadBalance :「加权随机」策略
  • RoundRobin LoadBalance:「加权轮询」策略
  • LeastActive LoadBalance:「最少活跃调用数」策略
  • ConsistentHash LoadBalance:「一致性 Hash」 策略
  • ShortestResponse LoadBalance:「最短响应时间」策略

「ShortestResponse LoadBalance」 策略小伙伴们可能会比较陌生,官方文档中并没有提到这个策略。

其实这个是 Dubbo 2.7.7 版本新增的负载均衡策略,官方文档估计还没更新。

ps:感兴趣的小伙伴,可以去修改下官方的文档,增加这个新的负载均衡的策略,为开源献出我们的一份力量。

回到正文,从AbstractLoadBalance#getWeight调用关系可以看到,「ConsistentHash LoadBalance」 实现类是不支持服务预热,这点需要注意一下。

Dubbo 预热历史 bug-反复横跳

虽然 Dubbo 预热的相关代码,总体看起来不是很难,但是历史版本还是存在几个 Bug,导致预热失效。

Dubbo 2.5.5 之前的版本

在 Dubbo 2.5.5 之前的版本,AbstractLoadBalance#getWeight实现方式如下:

这个版本跟现在代码一样,都是从节点的 timestamp获取服务启动时间。不过这个版本存在一些问题,Dubbo 没有把服务提供者启动时间传给消费者,导致这里获取 timestamp是消费者启动时间,这样就导致预热失效。

等到 Dubbo 2.5.6 ,修复这个问题,源码如下:

这个版本将服务提供者启动时间单独保存在 remote.timestamp 属性中,源码位于 ClusterUtils#mergeUrl

通过这种方式修复预热失效的问题。

Dubbo 2.7.2 预热又失效了

当 Dubbo 版本升级到 2.7.2 ,这个预热失效 Bug 又回来了。带来这个问题主要原因是ClusterUtils#mergeUrl 源码中清除了remote.timestamp,转而统一使用 timestamp保存服务启动时间。

但是呢,由于修改没有彻底, AbstractLoadBalance#getWeight还是依然使用 remote.timestamp 获取服务启动时间,这就导致预热失效。

预热代码的隐藏 bug

这个 Bug 在Dubbo 2.7.4 版本被彻底修复,另外还顺带优化了代码中存在缺陷。

先看下原先的代码中国缺陷,原先预热代码实现采用如下方式计算服务启动运行的时间。

int uptime = (int) (System.currentTimeMillis() - timestamp);

但是这里存在一个问题,如果服务提供者与消费者两端时钟是不一致,服务提供者启动时间很有可能会大于消费者本地时间。

这种情况,uptime 计算结果为一个负值,这就会导致权重将使用配置的默认值,预热也失效了。

所以针对这种情况 「@aftersss」 提供了修复的方案,加入相关的判断,当 uptime为负值的时候,直接返回权重 1。

不过在 「Code review」 过程中,「@beiwei30」 觉得不用加入额外 if 判断,可以直接使用 Math.max兼容。

不过这样修改,还是存在一个问题:Integer 精度丢失问题。

如果此时 System.currentTimeMillis() = 1566209746000(2019-08-19 18:15:46),而 timestamp = 1561914711000(2019-07-01 01:11:51),当两者差值为:「4295035000」

这是一个远大于 Integer.MAX_VALUE的值,所以在 long 转为 int 时候精度丢失,导致最后实际得到 int 值为 「67704」

而这个值小于服务预热的默认时间(10 * 60 * 1000),所以进入动态计算权重环节,最终将得到一个比较小的权重,这就导致「假预热」

所以最后还是采用  「@aftersss」 修复的方案,采用 long 类型存储时间戳计算结果,最终优化代码如下:

总结

今天的文章主要介绍了服务预热的作用,以及 Dubbo 服务预热的实现方式。

这个实现方式整体来说不是很难,简单来说就是随着运行时间逐渐提高权重,从而增加服务节点的流量。

如果你当前使用框架并没有这个功能,而你正需要服务预热,可以参考 Dubbo 的实现方式。

另外由于 Dubbo 历史版本存在一些 Bug,如果各小伙伴需要使用服务预热功能,需要注意避免使用以下版本:

  • 「Dubbo 2.5.5 之前的版本」
  • 「Dubbo 2.7.2/ 2.7.3」


浏览 36
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报