总第523 篇
2022年 第040篇
可观测性作为系统高可用的重要保障,已经成为系统建设中不可或缺的一环。然而随着业务逻辑的日益复杂,传统的ELK方案在日志搜集、筛选和分析等方面愈加耗时耗力,而分布式会话跟踪方案虽然基于追踪能力完善了日志的串联,但更聚焦于调用链路,也难以直接应用于高效的业务追踪。
本文介绍了可视化全链路日志追踪的新方案,它以业务链路为载体,通过有效组织业务每次执行的日志,实现了执行现场的可视化还原,支持问题的高效定位。 1. 背景
2. 可视化全链路日志追踪
3. 大众点评内容平台实践
4. 总结与展望
1. 背景 1.1 业务系统日益复杂 随着互联网产品的快速发展,不断变化的商业环境和用户诉求带来了纷繁复杂的业务需求。业务系统需要支撑的业务场景越来越广、涵盖的业务逻辑越来越多,系统的复杂度也跟着快速提升。与此同时,由于微服务架构的演进,业务逻辑的实现往往需要依赖多个服务间的共同协作。总而言之,业务系统的日益复杂已经成为一种常态。 1.2 业务追踪面临挑战 业务系统往往面临着多样的日常客诉和突发问题,“业务追踪”就成为了关键的应对手段。业务追踪可以看做一次业务执行的现场还原过程,通过执行中的各种记录还原出原始现场,可用于业务逻辑执行情况的分析和问题的定位,是整个系统建设中重要的一环。 目前在分布式场景下,业务追踪的主流实现方式包括两类,一类是基于日志的ELK方案,一类是基于单次请求调用的会话跟踪方案。然而随着业务逻辑的日益复杂,上述方案越来越不适用于当下的业务系统。 1.2.1 传统的ELK方案 日志作为业务系统的必备能力,职责就是记录程序运行期间发生的离散事件,并且在事后阶段用于程序的行为分析,比如曾经调用过什么方法、操作过哪些数据等等。在分布式系统中,ELK技术栈已经成为日志收集和分析的通用解决方案。如下图1所示,伴随着业务逻辑的执行,业务日志会被打印,统一收集并存储至Elasticsearch( 下称ES )[2] 。 图1 业务系统ELK案例 传统的ELK方案需要开发者在编写代码时尽可能全地打印日志,再通过关键字段从ES中搜集筛选出与业务逻辑相关的日志数据,进而拼凑出业务执行的现场信息。然而该方案存在如下的痛点: 综上所述,随着业务逻辑和系统复杂度的攀升,传统的ELK方案在日志搜集、日志筛选和日志分析方面愈加的耗时耗力,很难快速实现对业务的追踪。 1.2.2 分布式会话跟踪方案 在分布式系统,尤其是微服务系统中,业务场景的某次请求往往需要经过多个服务、多个中间件、多台机器的复杂链路处理才能完成。为了解决复杂链路排查困难的问题,“分布式会话跟踪方案”诞生。该方案的理论知识由Google在2010年《Dapper》论文[3] 中发表,随后Twitter开发出了一个开源版本Zipkin[4] 。 市面上的同类型框架几乎都是以Google Dapper论文为基础进行实现,整体大同小异,都是通过一个分布式全局唯一的id( 即traceId ),将分布在各个服务节点上的同一次请求串联起来,还原调用关系、追踪系统问题、分析调用数据、统计系统指标。分布式会话跟踪,是一种会话级别 的追踪能力,如下图2所示,单个分布式请求被还原成一条调用链路,从客户端发起请求抵达系统的边界开始,记录请求流经的每一个服务,直到向客户端返回响应为止。 图2 一次典型的请求全过程(摘自《Dapper》) 分布式会话跟踪的主要作用是分析分布式系统的调用行为 ,并不能很好地应用于业务逻辑的追踪。下图3是一个审核业务场景的追踪案例,业务系统对外提供审核能力,待审对象的审核需要经过“初审”和“复审”两个环节( 两个环节关联相同的taskId ),因此整个审核环节的执行调用了两次审核接口。如图左侧所示,完整的审核场景涉及众多“业务逻辑”的执行,而分布式会话跟踪只是根据两次RPC调用生成了右侧的两条调用链路,并没有办法准确地描述审核场景业务逻辑的执行,问题主要体现在以下几个方面: 图3 分布式会话跟踪案例 分布式会话跟踪仅支持单个请求的调用追踪,当业务场景包含了多个调用时,将生成多条调用链路;由于调用链路通过traceId串联,不同链路之间相互独立,因此给完整的业务追踪增加了难度。例如当排查审核场景的业务问题时,由于初审和复审是不同的RPC请求,所以无法直接同时获取到2条调用链路,通常需要额外存储2个traceId的映射关系。 分布式会话跟踪生成的调用链路,只包含单次请求的实际调用情况,部分未执行的调用以及本地逻辑无法体现在链路中,导致无法准确描述业务逻辑的全景。例如同样是审核接口,初审链路1包含了服务b的调用,而复审链路2却并没有包含,这是因为审核场景中存在“判断逻辑”,而该逻辑无法体现在调用链路中,还是需要人工结合代码进行分析。 分布式会话跟踪覆盖了单个请求流经的所有服务、组件、机器等等,不仅包含当前业务系统,还涉及了众多的下游服务,当接口内部逻辑复杂时,调用链路的深度和复杂度都会明显增加,而业务追踪其实仅需要聚焦于当前业务系统的逻辑执行情况。例如审核场景生成的调用链路,就涉及了众多下游服务的内部调用情况,反而给当前业务系统的问题排查增加了复杂度。 1.2.3 总结 传统的ELK方案是一种滞后的业务追踪,需要事后从大量离散的日志中搜集和筛选出需要的日志,并人工进行日志的串联分析,其过程必然耗时耗力。而分布式会话跟踪方案则是在调用执行的同时,实时地完成了链路的动态串联,但由于是会话级别且仅关注于调用关系等问题,导致其无法很好地应用于业务追踪。 因此,无论是传统的ELK方案还是分布式会话跟踪方案,都难以满足日益复杂的业务追踪需求。本文希望能够实现聚焦于业务逻辑追踪的高效解决方案,将业务执行的日志以业务链路为载体进行高效组织和串联,并支持业务执行现场的还原和可视化查看,从而提升定位问题的效率,即可视化全链路日志追踪 。 下文将介绍可视化全链路日志追踪 的设计思路和通用方案,同时介绍新方案在大众点评内容平台的落地情况,旨在帮助有类似需求的业务系统开发需求的同学提供一些思路。 2. 可视化全链路日志追踪 2.1 设计思路 可视化全链路日志追踪 考虑在前置阶段,即业务执行的同时实现业务日志的高效组织和动态串联,如下图4所示,此时离散的日志数据将会根据业务逻辑进行组织,绘制出执行现场,从而可以实现高效的业务追踪。图4 业务系统日志追踪案例 新方案需要回答两个关键问题:如何高效组织业务日志,以及如何动态串联业务日志。下文将逐一进行回答。 为了实现高效的业务追踪,首先需要准确完整地描述出业务逻辑,形成业务逻辑的全景图,而业务追踪其实就是通过执行时的日志数据,在全景图中还原出业务执行的现场。 新方案对业务逻辑进行了抽象,定义出业务逻辑链路,下面还是以“审核业务场景”为例,来说明业务逻辑链路的抽象过程: 一次业务追踪就是逻辑链路 的某一次执行情况的还原,逻辑链路 完整准确地描述了业务逻辑全景,同时作为载体可以实现业务日志的高效组织。 图5 业务逻辑链路案例 业务逻辑执行时的日志数据原本是离散存储的,而此时需要实现的是,随着业务逻辑的执行动态串联各个逻辑节点的日志,进而还原出完整的业务逻辑执行现场。 由于逻辑节点之间、逻辑节点内部往往通过MQ或者RPC等进行交互,新方案可以采用分布式会话跟踪提供的分布式参数透传能力 [5] 实现业务日志的动态串联: 与分布式会话跟踪方案不同的是,当同时串联多次分布式调用时,新方案需要结合业务逻辑选取一个公共id作为标识,例如图5的审核场景涉及2次RPC调用,为了保证2次执行被串联至同一条逻辑链路,此时结合审核业务场景,选择初审和复审相同的“任务id”作为标识,完整地实现审核场景的逻辑链路串联和执行现场还原。 2.2 通用方案 明确日志的高效组织和动态串联这两个基本问题后,本文选取图4业务系统中的“逻辑链路1”进行通用方案的详细说明,方案可以拆解为以下步骤: 图6 通用方案拆解 2.2.1 链路定义 “链路定义”的含义为:使用特定语言,静态描述完整的逻辑链路 ,链路通常由多个逻辑节点 ,按照一定的业务规则 组合而成,业务规则 即各个逻辑节点之间存在的执行关系,包括串行 、并行 、条件分支 。 DSL(D omain Specific Language )是为了解决某一类任务而专门设计的计算机语言,可以通过JSON或XML定义出一系列节点( 逻辑节点 )的组合关系( 业务规则 )。因此,本方案选择使用DSL描述逻辑链路,实现逻辑链路从抽象定义 到具体实现 。 图7 链路的抽象定义和具体实现 逻辑链路1-DSL [ { "nodeName" : "A" , "nodeType" : "rpc" }, { "nodeName" : "Fork" , "nodeType" : "fork" , "forkNodes" : [ [ { "nodeName" : "B" , "nodeType" : "rpc" } ], [ { "nodeName" : "C" , "nodeType" : "local" } ] ] }, { "nodeName" : "Join" , "nodeType" : "join" , "joinOnList" : [ "B" , "C" ] }, { "nodeName" : "D" , "nodeType" : "decision" , "decisionCases" : { "true" : [ { "nodeName" : "E" , "nodeType" : "rpc" } ] }, "defaultCase" : [ { "nodeName" : "F" , "nodeType" : "rpc" } ] } ] 2.2.2 链路染色 “链路染色”的含义为:在链路执行过程中,通过透传串联标识,明确具体是哪条链路在执行,执行到了哪个节点。 步骤一 :确定串联标识,当逻辑链路开启时,确定唯一标识,能够明确后续待执行的链路和节点。链路唯一标识 = 业务标识 + 场景标识 + 执行标识 ( 三个标识共同决定“某个业务场景下的某次执行” ) 业务标识:赋予链路业务含义,例如“用户id”、“活动id”等等。
场景标识:赋予链路场景含义,例如当前场景是“逻辑链路1”。
执行标识:赋予链路执行含义,例如只涉及单次调用时,可以直接选择“traceId”;涉及多次调用时则,根据业务逻辑选取多次调用相同的“公共id”。
节点唯一标识 = 链路唯一标识 + 节点名称 ( 两个标识共同决定“某个业务场景下的某次执行中的某个逻辑节点” ) 步骤二 :传递串联标识,当逻辑链路执行时,在分布式的完整链路中透传串联标识,动态串联链路中已执行的节点,实现链路的染色。例如在“逻辑链路1”中:2.2.3 链路上报 “链路上报”的含义为:在链路执行过程中,将日志以链路的组织形式进行上报,实现业务现场的准确保存。 图8 链路上报图示 如上图8所示,上报的日志数据包括:节点日志 和业务日志 。其中节点日志的作用是绘制链路中的已执行节点,记录了节点的开始、结束、输入、输出;业务日志的作用是展示链路节点具体业务逻辑的执行情况,记录了任何对业务逻辑起到解释作用的数据,包括与上下游交互的入参出参、复杂逻辑的中间变量、逻辑执行抛出的异常。 2.2.4 链路存储 “链路存储”的含义为:将链路执行中上报的日志落地存储,并用于后续的“现场还原”。上报日志可以拆分为链路日志、节点日志和业务日志三类: 下图就是链路存储的存储模型,包含了链路日志,节点日志,业务日志、链路元数据( 配置数据 ),并且是如下图9所示的树状结构,其中业务标识作为根节点,用于后续的链路查询。 图9 链路的树状存储结构 3. 大众点评内容平台实践 3.1 业务特点与挑战 互联网时代,内容为王。内容型平台的核心打法就是搭建内容流水线,保障内容可持续、健康且有价值地流转到内容消费者,并最终形成内容“生产→治理→消费→生产”的良性循环。 大众点评和美团App拥有丰富多样的内容,站内外业务方、合作方有着众多的消费场景。对于内容流水线中的三方,分别有如下需求: 生产方的内容模型各异、所需处理手段各不相同,消费方对于内容也有着个性化的要求。如果由各个生产方和消费方单独对接,内容模型异构 、处理流程和输出门槛各异 的问题将带来对接的高成本和低效率。在此背景下,点评内容平台 应运而生,作为内容流水线的“治理方”,承上启下实现了内容的统一接入、统一处理和统一输出: 图10 点评内容平台业务形态 如下图11所示,是点评内容平台的核心业务流程,每一条内容都会经过这个流程,最终决定在各个渠道下是否分发。 图11 点评内容平台业务流程 内容是否及时、准确经过内容平台的处理,是内容生产方和消费方的核心关注,也是日常值班的主要客诉类型。而内容平台的业务追踪建设,主要面临以下的困难与复杂性: 点评内容平台日均处理百万条内容,涉及百万次业务场景的执行、高达亿级的逻辑节点的执行,而业务日志分散在不同的应用中,并且不同内容,不同场景,不同节点以及多次执行的日志混杂在一起,无论是日志的搜集还是现场的还原都相当繁琐耗时,传统的业务追踪方案越来越不适用于内容平台。 点评内容平台亟需新的解决方案,实现高效的业务追踪,因此我们进行了可视化全链路日志追踪 的建设,下面本文将介绍一下相关的实践和成果。 3.2 实践与成果 3.2.1 实践 点评内容平台是一个复杂的业务系统,对外支撑着众多的业务场景,通过对于业务场景的梳理和抽象,可以定义出实时接入、人工运营、任务导入、分发重算等多个业务逻辑链路。由于点评内容平台涉及众多的内部服务和下游依赖服务,每天支撑着大量的内容处理业务,伴随着业务的执行将生成大量的日志数据,与此同时链路上报还需要对众多的服务进行改造。因此在通用的全链路日志追踪方案的基础上,点评内容平台进行了如下的具体实践。 点评内容平台实现了图12所示的日志上报架构,支持众多服务统一的日志收集、处理和存储,能够很好地支撑大数据量下的日志追踪建设。 图12 点评内容平台日志上报架构 日志收集 :各应用服务通过机器上部署的log_agent收集异步上报的日志数据,并统一传输至Kafka通道中,此外针对少量不支持log_agent的服务,搭建了如图所示的中转应用。日志解析 :收集的日志通过Kafka接入到Flink中,统一进行解析和处理,根据日志类型对日志进行分类和聚合,解析为链路日志、节点日志和业务日志。日志存储 :完成日志解析后,日志会按照树状的存储模型进行落地存储,结合存储的需求分析以及各个存储选项的特点,点评内容平台最终选择HBase 作为存储选型。
整体而言,log_agent + Kafka + Flink + HBase的日志上报和存储架构能够很好地支持复杂的业务系统,天然支持分布式场景下众多应用的日志上报,同时适用于高流量的数据写入。 点评内容平台实现了“自定义日志工具包”( 即下图13的TraceLogger工具包 ),屏蔽链路追踪中的上报细节,实现众多服务改造的成本最小化。TraceLogger工具包的功能包括: 模仿slf4j-api :工具包的实现在slf4j框架之上,并模仿slf4j-api对外提供相同的API,因此使用方无学习成本。屏蔽内部细节,内部封装一系列的链路日志上报逻辑,屏蔽染色等细节,降低使用方的开发成本。 日志组装 :实现参数占位、异常堆栈输出等功能,并将相关数据组装为Trace对象,便于进行统一的收集和处理。 异常上报 :通过ErrorAPI主动上报异常,兼容原日志上报中ErrorAppender。 日志上报 :适配Log4j2日志框架实现最终的日志上报。
图13 TraceLogger日志工具包 下面是TraceLogger工具包分别进行业务日志 和节点日志 上报的使用案例,整体的改造成本较低。 // 替换前:原日志上报 LOGGER.error("update struct failed, param:{}" , GsonUtils.toJson(structRequest), e); // 替换后:全链路日志上报 TraceLogger.error("update struct failed, param:{}" , GsonUtils.toJson(structRequest), e); 节点日志上报 :支持API、AOP两种上报方式,灵活且成本低。 public Response realTimeInputLink(long contentId) { // 链路开始:传递串联标识(业务标识 + 场景标识 + 执行标识) TraceUtils.passLinkMark("contentId_type_uuid" ); // ... // 本地调用(API上报节点日志) TraceUtils.reportNode("contentStore" , contentId, StatusEnums.RUNNING) contentStore(contentId); TraceUtils.reportNode("contentStore" , structResp, StatusEnums.COMPLETED) // ... // 远程调用 Response processResp = picProcess(contentId); // ... } // AOP上报节点日志 @TraceNode(nodeName="picProcess" ) public Response picProcess(long contentId) { // 图片处理业务逻辑 // 业务日志数据上报 TraceLogger.warn("picProcess failed, contentId:{}" , contentId); }3.2.2 成果 基于上述实践,点评内容平台实现了可视化全链路日志追踪,能够一键追踪任意一条内容所有业务场景的执行,并通过可视化的链路进行执行现场的还原,追踪效果如下图所示: 【链路查询功能】 :根据内容id实时查询该内容所有的逻辑链路执行,覆盖所有的业务场景。图14 链路查询 【链路展示功能】 :通过链路图可视化展示业务逻辑的全景,同时展示各个节点的执行情况。图15 链路展示 【节点详情查询功能】 :支持展示任意已执行节点的详情,包括节点输入、输出,以及节点执行过程中的关键业务日志。图16 节点详情 目前,可视化全链路日志追踪系统已经成为点评内容平台的“问题排查工具”,我们可以将问题排查耗时从小时级降低到5分钟内;同时也是“测试辅助工具”,利用可视化的日志串联和展示,明显提升了RD自测、QA测试的效率。最后总结一下可视化全链路日志追踪的优点: 4. 总结与展望 随着分布式业务系统的日益复杂,可观测性对于业务系统的稳定运行也愈发重要[6] 。作为大众点评内容流水线中的复杂业务系统,为了保障内容流转的稳定可靠,点评内容平台落地了全链路的可观测建设 ,在日志 ( Logging )、指标 ( Metrics )和追踪 ( Tracing )的三个具体方向上都进行了一定的探索和建设。 其中之一就是本文的“可视化全链路日志追踪”,结合日志 ( Logging )与追踪 ( Tracing ),我们提出了一套新的业务追踪通用方案,通过在业务执行阶段,结合完整的业务逻辑动态完成日志的组织串联,替代了传统方案低效且滞后的人工日志串联,最终可以实现业务全流程的高效追踪以及业务问题的高效定位。此外,在指标 ( Metrics )方向上,点评内容平台实践落地了“可视化全链路指标监控”,支持实时、多维度地展示业务系统的关键业务和技术指标,同时支持相应的告警和异常归因能力,实现了对业务系统整体运行状况的有效把控。 未来,点评内容平台会持续深耕,实现覆盖告警、概况、排错和剖析等功能的可观测体系[7] ,持续沉淀和输出相关的通用方案,希望可以为业务系统( 特别是复杂的业务系统 ),提供一些可观测性建设的借鉴和启发。 5. 参考文献 [1] Metrics, tracing, and logging [2] ELK Stack: Elasticsearch, Logstash, Kibana | Elastic [3] Dapper, a Large-Scale Distributed Systems Tracing Infrastructure [4] OpenZipkin · A distributed tracing system 6. 作者及团队简介 海友、怀宇、亚平、立森等,均来自点评事业部/内容平台技术团队,负责点评内容平台的建设工作。 点评内容平台技术团队,支持点评内容生态的建设,致力于打造支持亿级内容的高吞吐、低延时、高可用、灵活可扩展的内容流式处理系统,为点评信息流和搜索等核心内容分发场景提供丰富且优质的内容供给,更好地满足用户内容消费诉求。