Flink全链路延迟的测量方式和实现原理

程序源代码

共 5168字,需浏览 11分钟

 ·

2022-01-19 19:34

点击上方蓝色字体,选择“设为星标”
回复”面试“获取更多惊喜
本文已经加入「大数据成神之路PDF版」中提供下载。
你可以关注公众号,后台回复:
PDF 即可获取。

一、背景

Flink Job端到端延迟是一个重要的指标,用来衡量Flink任务的整体性能和响应延迟(大部分流式应用,要求低延迟特性)。

通过流处理引擎竞品对比,我们发现大部分流计算引擎产品,都在告警监控页面,集成了全链路时延指标展示(直方图)。

一些低延时的处理场景,例如用于登陆、用户下单规则检测,实时预测场景,需要一个可度量的Metric指标,来实时观测、监控集群全链路时延情况。

二、源码分析来源

1、本文的源码分析基于Flink社区issue FLINK-3660,以及issue对应的pr源码pull-2386,另外,个人也新增了实现源码的说明。

2、其pr源码中只涉及到了部分全链路时延实现代码,因此,我在文章中总结了:

  • Source到Sink处理Latency Marker源码
  • LatencyMarksEmitter 提交时延标记类
  • LatencyStats(时延直方图Metric实现)源码

时延测量–整体架构图

三、腾讯Oceanus监控指标参考

如下图,红色框线对应的数据延时,即我们描述的指标

四、Flink LatencyMarker实现思路

  1. 实现方案变迁

在webinterface中,加入流式job的端到端延迟是一个重要特性。因此,Flink社区最初的想法是在每个记录的source上附加一个摄取时间(ingestion-time)时间戳。

然而,这为不使用monitor feature(监控功能)的用户,带来了额外开销(每个元素+每个元素上的System.currentTimeMilis()需要8个字节)。

因此,Flink社区最后决定,通过定期发送特殊事件来实现此功能,类似于通过拓扑发送水印watermark。

  1. 实现原理

这些特殊事件(LatencyMarker)在source上以可配置发送间隔,并由任务Task转发。Sink最后接收到LatencyMarks后,将比较LatencyMarker的时间戳与当前系统时间,以确定延迟。

LatencyMarker不会增加作业的延迟,但是LatencyMarker与常规记录类似,可以被delay阻塞(例如反压情况),因此LatencyMarker的延迟与Record延迟近似。

  1. 节点间时钟偏移及准确性

当前方案期望所有任务管理器TaskManager上的时钟是同步的。否则,测量的延迟也包括TaskManager时钟之间的偏移。

后续,我们可以尝试通过使用JobManager作为计时服务中心(central timing service)来缓解这个问题。taskmanager将定期查询JM的当前时间,以确定其时钟的偏移量。

这个偏移量仍然包括TM和JM之间的网络延迟,但是仍然比较好的测量时延。

五、Flink LatencyMarker实现源码

本章节对应到pr源码pull-2386的实现,这里简要说明。

  1. 实现基础类及下发标记

Flink源码中,引入了一个新的StreamElement,称为LatencyMarker。

与水印类似,LatencyMarker按配置的间隔从源发出。这个时间间隔的默认值是0毫秒,即不触发(配置项在ExecutionConfig#latencyTrackingInterval,名称metrics.latency.interval),例如可以配置成2000毫秒触发一次LatencyMarker发送。

LatencyMarker不能“多于”常规元素。这确保了测量的延迟接近于常规流元素的端到端延迟。

常规操作符Operator(不包括那些参与迭代的Operator)如果不是sink,就会转发延迟标记LatencyMarker。

  1. 多输出通道—随机下发标记

具有多个输出channel的Operator,随机选择一个channel通道,将LatencyMarker发送给它。这可以确保每个LatencyMarker标记在系统中只存在一次,并且重新分区步骤不会导致传输的LatencyMarker数量激增。

public class RecordWriterOutput{
 @Override
 public void emitLatencyMarker(LatencyMarker latencyMarker) {
  serializationDelegate.setInstance(latencyMarker);

  try {
   // 内部实现了随机选择通道
   recordWriter.randomEmit(serializationDelegate);
  }
  catch (Exception e) {
   throw new RuntimeException(e.getMessage(), e);
  }
 }
}

上述RecordWriterOutput#emitLatencyMarker()会被StreamSource、AbstractStreamOperator调用,分别实现source和中间operator的延迟标记下发。

如果操作符Operator是Sink,它将维护每个已知source实例的最后128个LatencyMarker信息。

  1. Metric展示

每个已知source的最小/最大/平均值/p50/p95/p99时延,在sink的LatencyStats对象中,进行汇总(如果没有任何输出的Operator,就是是sink)。

本pr只涉及全链路延迟统计的实现,Flink已有一整套Metric显示体系,全链路时延Metric展示交给Flink框架本身)。

此外,目前还没有确保系统时钟同步的机制,因此如果硬件时钟不正确,则延迟测量将不准确。

六、时延粒度Granularity说明

  1. 时延粒度–概念说明

任意一个中间Operator或Sink,可以通过配置metrics.latency.granularity项,调整与Source间统计的粒度(Singe、Operator、Subtask):

A、统计的时候,可以选择source源id、source源subtask index进行组合,调整统计粒度。

B、统计的时候,当前Operator及当前Operator subtask index总是参与粒度名称的生成,固定的。

  1. 三种时延跟踪策略及其源码定义

Single - 跟踪延迟,无需区分:源+源子任务:

(例如双流Join的两个source,这里都默认为一个数据源了)

  SINGLE {
   String createUniqueHistogramName(LatencyMarker marker, OperatorID operatorId, int operatorSubtaskIndex) {
    // 只有自己的operatorId和operatorSubtaskIndex参与Metric名称生成
    // LatencyMarker带有的id(源)不参与Metric名称生成
    return String.valueOf(operatorId) + operatorSubtaskIndex;
   }
  }

Operator - 跟踪延迟,区分源,但不区分源的子任务:

  OPERATOR {
   String createUniqueHistogramName(LatencyMarker marker, OperatorID operatorId, int operatorSubtaskIndex) {
   // LatencyMarker带有的id(源)中id参与计算
    return String.valueOf(marker.getOperatorId()) + operatorId + operatorSubtaskIndex;
   }
  }

Subtask - 跟踪延迟,区分源+源子任务:

  SUBTASK {
   String createUniqueHistogramName(LatencyMarker marker, OperatorID operatorId, int operatorSubtaskIndex) {
    return String.valueOf(marker.getOperatorId()) + marker.getSubtaskIndex() + operatorId + operatorSubtaskIndex;
   }
  }

根据上述不同的名称key,将直方图对象放入Map中,Map定义:

Map latencyStats = new HashMap<>()
伪代码(创建直方图):
latencyHistogram = new DescriptiveStatisticsHistogram(this.historySize);
this.latencyStats.put(uniqueName, latencyHistogram);

伪代码(更新直方图):
long now = System.currentTimeMillis();
latencyHistogram.update(now - marker.getMarkedTime())
  1. Single、Operator、Subtask时延策略在Web Metric中的体现

上述Single、Operator 、Subtask不同测试,生成的Metric名称和group就会产生变化,Web Metric中名称相应改变

一个Subtask时延粒度的Metric路径:

Job__ .latency

七、总结说明

  1. LatencyMarker不参与window、MiniBatch的缓存计时,直接被中间Operator下发。

  2. Metric路径:TaskManagerJobMetricGroup/operator_id/operator_subtask_index/latency(根据时延配置粒度Granularity,路径会有变化,参考本文第六章节)

  3. 每个中间Operator、以及Sink都会统计自己与Source节点的链路延迟,我们在监控页面,一般展示Source至Sink链路延迟。

  4. 延迟粒度细分到Task,可以用来排查哪台机器的Task时延偏高,进行对比和运维排查。

  5. 从实现原理来看,发送时延标记间隔配置大一些(例如20秒一次),一般不会影响系统处理业务数据的性能(所有的StreamSource Task都按间隔发送时延标记,中间节点有多个输出通道的,随机选择一个通道下发,不会复制多份数据出来)。

参考原文:https://blog.csdn.net/LS_ice/article/details/103295774


《大数据成神之路》正在全面PDF化。
你只需要关注并在后台回复「PDF」就可以看到阿里云盘下载链接了!
另外我把发表过的文章按照体系全部整理好了。现在你可以在后台方便的进行查找:
电子版把他们分类做成了下面这个样子,并且放在了阿里云盘提供下载。
我们点开一个文件夹后:
如果这个文章对你有帮助,不要忘记 「在看」 「点赞」 「收藏」 三连啊喂!
Hi,我是王知无,一个大数据领域的原创作者。 
放心关注我,获取更多行业的一手消息。


2022年全网首发|大数据专家级技能模型与学习指南(胜天半子篇)
互联网最坏的时代可能真的来了
我在B站读大学,大数据专业
我们在学习Flink的时候,到底在学习什么?
193篇文章暴揍Flink,这个合集你需要关注一下
Flink生产环境TOP难题与优化,阿里巴巴藏经阁YYDS
Flink CDC我吃定了耶稣也留不住他!| Flink CDC线上问题小盘点
我们在学习Spark的时候,到底在学习什么?
在所有Spark模块中,我愿称SparkSQL为最强!
硬刚Hive | 4万字基础调优面试小总结
数据治理方法论和实践小百科全书
标签体系下的用户画像建设小指南
4万字长文 | ClickHouse基础&实践&调优全视角解析
【面试&个人成长】2021年过半,社招和校招的经验之谈
大数据方向另一个十年开启 |《硬刚系列》第一版完结
我写过的关于成长/面试/职场进阶的文章
当我们在学习Hive的时候在学习什么?「硬刚Hive续集」
浏览 68
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报