百度API接口智能化测试探索与实践

服务端思维

共 6615字,需浏览 14分钟

 ·

2022-03-06 05:33

点击上方“服务端思维”,选择“设为星标

回复”669“获取独家整理的精选资料集

回复”加群“加入全国服务端高端社群「后端圈」


620b2d1df3f100db902b7e29ef859f5c.webp

作者 | 戴维德出品 | 百度智能化测试


导读:API接口自动化测试在服务端分层测试体系中占有重要地位,在持续追求提升研发交付效能的背景下,传统的自动化测试工具面临质量与效率的更高挑战。智能化测试的本质是利用数据和算法相结合赋能质量活动的测试方法,借助智能化测试思维,在API测试全生命周期内进行了多环节的针对性优化、形成合力赋能提升测试质效。


一、API测试面临的质效问题

1.1 API的自动化测试特点


API接口由于具备良好的可测性,很自然的成为服务端程序自动化测试的首选方案:

55f118246724fc921ee9ba96aa57f884.webp


1、API的结构化有助于程序实现请求与解析接口,当前以Json数据结构为主要的入参、返回结构,可读性强、程序化处理方便。

2、API的业务逻辑集成度较高,具备较高测试性价比,接口的参数组合具备直接的业务含义,主要的业务场景是可以通过不同参数组合达到覆盖。

3、API测试执行与维护成本较低,考虑到需要书写的case量级、调试与维护的代价,在测试分层的金字塔理念之中,是作为腰部支撑的存在。


c2216666b688de6c08306f14df5c1bfc.webp


1.2 API自动化测试面对新的挑战


伴随着自动化测试的建设与积累,建成了一站式平台化为主要形式的测试服务,CASE全周期几乎都是在平台内进行的,平台化的建设集成了丰富的测试能力、减少了重复建设、提高了测试服务的可靠性,从完全手工测试跨越到自动化平台对质效提升有显著意义,但同时也面临新的问题需要解答:


1、测试全周期内,人力投入是否可完全释放:

  • CASE书写调试效率:API CASE由接口定义、参数数据、断言组成,平台建设有编辑管理能力,在自动化发展的初期, CASE自身的书写准备仍然需要大量人工投入,多数工作集中在了从浏览器复制粘贴接口参数、或者从API定义文档中手工录入参数。在初期,CASE的全自动化生成占比几乎为0%。

  • 排查分析CASE失败原因:按照历史经验,自动化CASE失败的原因70~80%与被测代码无关,而更多的是平台、CASE、环境、数据等相关,日常排查分析此类问题浪费大量的人力。


2、自动化CASE量级急剧膨胀,测试效率开始降低、可维护性变差:

  • 长尾任务增多:随着CASE量级增长、维护跟不上导致稳定性变差,开始出现执行耗时变慢,难以达成快速测试的目的,同时也挤占了公共执行资源。比较突出的长尾任务包含上千个case,整体耗时需要1小时。

  • CASE存在大量冗余、无法甄别质量:当CASE积累到一定阶段后,人工维护的及时性与可行性极速下降,单靠人工去筛选、清理CASE变得非常困难。使得测试执行时无法高效有效的筛选出合适的CASE来覆盖。


3、自动化CASE测试的质量是否可信:

  • 一种情况是,CASE全部PASS造成的测试通过假象:其中可能夹杂这CASE并无有效断言来拦截问题、或者覆盖率不足,无法有效的证明CASE测试是放心的。

  • 另一种情况是CASE有频繁的FAIL,但是夸大了问题拦截率:更多的是由于平台、CASE、环境、数据等干扰问题导致的CASE状态不稳定。


4f2eb58237415e7b26f1398bf32d9726.webp


二、智能化测试基本思路


如何理解智能化测试:利用数据和算法相结合赋能质量活动的测试方法,使得每一次测试活动,都用较小的代价、准确判断质量风险。

(1)智能化测试不是一种全新的测试类型;

(2)智能化测试存在传统测试的某个或多个环节中;

(3)传统测试是智能化测试发挥作用最重要的载体。


基于自动化测试的整个生命周期,输入、执行、分析、定位、评估,分别有其相应的数据特征与规律、以及对应的瓶颈问题,智能化测试以提升测试过程各阶段质效为目标,将数据与策略相结合,形成整体合力。


afaeb11878762f6cf681e62e664f9979.webp


三、API测试全周期智能化测试实践


0998ebc67e7e08ded2c07943b10b1aa4.webp


在智能化测试的思维指导下,以API自动化测试平台为载体,结合API测试各个阶段面临的问题,分而治之。

1、准备CASE:通过自动化生成的手段快速生成CASE,智能化策略解决参数组合爆炸问题、断言缺失问题。

2、执行CASE:通过任务编排的动态并发策略提高测试效率,通过代码覆盖的映射关系精准筛选CASE提高测试效益。

3、分析判断结果:通过Diff去噪策略保障接口对比测试的调试效率与效果。

4、排查定位原因:通过结合日志trace系统、异常错误规则库建设,提高自动排查定位效率。

5、评估测试质量:通过适合的自动化CASE评估手段,评价CASE的有效性,指导CASE优化治理与披露风险。


3.1 自动化CASE的「自动化+智能化」生成


API CASE主要由接口定义结构、参数数据、断言三部分组成,前两部分比较好实现自动化,而断言部分因为包含业务逻辑的校验需要更多考虑智能化策略。

1、接口定义+参数数据的自动导入生成:扩展多种对接渠道,建立快捷的自动化生成CASE机制。

  • 基于API定义管理工具:swagger+yapi用作规范化的API定义管理工具,包含了uri、入参结构与示例、返回结构与示例。测试平台建立对接机制,可一键式导入并监听接口变更信息。

  • 基于业务系统日志:从生产环境摘取API的日志片段,经过加工处理之后,解析出API结构与参数。测试平台以开放API的形式提供给业务线定制化实现对接。

  • 浏览器插件录制请求:建设pc浏览器的插件,对页面操作时的后端请求直接录制保存到CASE,尤其是有顺序要求的API请求序列。对于web手工回归测试、验收的环节,可同时生成接口CASE。

  • 其他API测试工具导入:postman作为手工调试API的利器,在研发阶段积累了一些API的请求,可批量导入为CASE。另外还有一些代理工具,如fiddler、charles其接口请求的数据格式也可支持导入导出。


52fec607878e92450115b4af2f1ce0cf.webp


自动化生成的API CASE,主要用于两类场景:

  • 契约测试:在微服务系统中是比较重要的用以验证服务之间接口契约一致性的手段,在使用中需要解决二个问题,一是接口结构随着业务发展经常升级变化需要及时更新到CASE,二是验证契约需要一定量级的参数组合但又要避免参数组合爆炸的问题。前者主要建设了监听API定义变化的机制自动刷新CASE,后者是一个典型的pairwise测试组合算法应用场景,即参数俩俩正交组合达到最佳覆盖同时又控制参数组合的量级最少。

  • 回归测试:应用与业务逻辑回归面临的重要问题有三点,一是大部分业务逻辑是一系列API组合且有依赖关系的操作序列,因此也需要CASE内保持此种关系;二是由于CASE内部API组合情况增加了复杂度,需要增加前置的规范化预处理机制;三是业务逻辑断言不能够依赖自动化代替,大部分仍需要人工后期修改增加断言,但为避免生成无断言的无效CASE,至少生成一些基础性的断言,如json-schema断言对结构做最基本的检验。


2、接口断言的自动化生成:尽可能的多做一步,为新增CASE以及存量CASE主动生成与推荐断言。由于json为当下API主要的数据交换格式,断言生成的部分也主要集中在json的处理机制上。

  • Json-schema断言:json-schema定义了一套词汇和规则来描述Json数据,即Json数据需要遵循的规范,包括成员、结构、类型、约束等。在测试场景下(特别是契约测试),可用于验证API返回json数据的格式、内容。


d8f3b0f84c2b1289cd401fb99e2307fb.webp


  1. 对于新生成的CASE,结合导入的上游渠道中描述的接口定义(包含了接口返回结构),可直接将json数据转化为json-schema。

  2. 对于存量CASE因书写不规范有断言空白的,起不到任何拦截问题的作用,从成本上考虑高优补充json-schema断言。基于CASE执行的历史结果数据,提取无异常报错的记录N个,转化为json-schema集合并计算期间的差异,按照其表现与CASE的参数、执行时间对照,经由不同规则确定适合的json-schema版本自动回填到CASE中。


de37b6e88a97b860835759004ffa182b.webp


  • Json key-value值断言:json数据中的键值对,其value值为主要的验证点,常用做回归校验。对于新增CASE或者存量无断言CASE,均可以通过基于最近执行结果的N条记录,计算key-value中value的diff比例,设定阈值区分固定的value值,并回填到CASE中作为回归断言点。


cea59a441194295ce509f6c9782aaa51.webp


经过上述能力建设之后,当前增量CASE中,自动化手段生成的CASE占比已经提升到了60%以上,全年为30%。


3.2 自动化CASE执行更加高效、有效


1. 自动化CASE的「效率」问题:当CASE量级达到千级别以上,执行效率问题已经比较突出,基于 CASE 的历史表现、可执行资源、对量级较大且耗时较长的CASE集合,实施动态预估分组并发执行。相比固定分组充分利用执行资源、有效减少了长尾的分组。

  • 动态预估:基于可用线程资源、历史性能与稳定性表现,预估可分组数量。

  • CASE分组:按历史N次平均耗时表现动态分配到不同分组内,保持分组之间的整体耗时相对均等。

  • 分布式执行:采用分布式执行框架,对任务分片分批处理。

  • 熔断止损:分组内监听执行情况,异常导致的耗时明显增长将熔断执行,避免分组成为长尾。


优化执行模型之后,长尾任务的数量减少40%,并且有益于资源快速释放进而可以消化更多任务,整体测试任务的平均耗时随之降低30%。


df255498f83b7fc0b8a4fce93a793148.webp


2. 自动化CASE的「效益」问题:CASE 量级积累到一定阶段后变得庞大冗余,带来的另一个棘手问题是,维护不及时导致无法甄别CASE质量,全量执行 Fail 率高影响测试效果。因此,针对代码变更筛选推荐高度相关的 CASE 集合,可减少冗余执行、提高效率、也达到了针对代码变更影响范围的「精益化」测试。

  • CASE相关性计算:通过串行执行CASE的同时dump测试环境的cov文件,计算提取其中的函数信息,可获取CASE相关的被测函数列表。

  • 筛选CASE:基本做法即通过提测代码计算diff,提取出有变更的函数列表,然后查询上一步的对应CASE集合。进阶做法是对筛选的策略进行优化,对CASE多维度的数据建立分类与排序。


CASE筛选策略可广泛应用于CI流水线的准入测试(冒烟),以自动筛选相关CASE取代人工维护,筛选后执行效率相比全量执行可优化70%。


27058ec20b4b86e2bf5bcbecff4dde76.webp


3.3 分析测试结果的智能化手段


在API测试中有这样一类场景,API的数据结构比较复杂、数据比较多,不论是人工设置断言还是自动化生成的断言,均很难达到较好、较准的覆盖。对于这类接口,衍生出Diff测试的方式来进行测试覆盖。


Diff 测试常用于回归测试,其主要方式是采用相同的接口请求参数,分别发往A/B两个版本的接口服务,其中一个版本是已交付上线版本并认为是可信的。Diff测试的优点在于可全流程自动生成、无需编写断言。但 diff 结果情况复杂,一般存在较多随机值、变化值并非验证重点,导致case往复调试成本高。


针对Diff结果有「噪点」的问题,设定去噪算法消除 diff 结果的不确定性,减少人工调试 case 成本,自适应提高 case 稳定性。当前在接口CASE应用到diff测试场景时,大部分无需关注断言,可100%自动化完成自适应修正,无需人工介入。


de857f68b776d54c302cb3581e8b9421.webp


3.4 CASE FAIL原因的智能化分析定位


自动化CASE FAIL比较常见,在建设初期、或者维护case量级比较大的业务,70%~80%以上的FAIL问题基本属于非代码bug原因。这部分排查牵扯的人力成本也是比较高的。通过自动化平台建立自身+业务逻辑的排查服务,通过自动定位排查手段能有效的减少这部分人力投入。


c2640a52b76e29027386f73206c108c0.webp


1、一级定位:首先排除掉自动化测试工具平台、环境、CASE规范这类非常明显、且容易出现的问题。这部分的工作依赖的是自动化测试工具自身的日志建设,建立完整的异常错误码机制,对各个环境容易出现的异常进行细致的分类。比如接口请求不通的异常,就需要分为被测服务异常无法访问、或者是CASE中的URL填写错误等。对于工具而言要解决的一个策略机制问题是,当一次测试出现的异常太多,如何选择1个root cause作为主要根因反馈到测试结果中。此处的过滤策略,先对CASEID+ERROR为Key存储到缓存,过滤掉同一个CASE重复的报错;根据执行测试流程对ERROR发生的时机建立优先级顺序,同一个CASE有不同的ERROR报错信息时,按照先后顺序高优推荐首条错误原因;当批量CASE均有多个ERROR报错信息时,对ERROR计数再区分,选择比重最高的作为错误原因。如此一来可自动化的排除掉CASE FAIL问题的20%无需介入排查。


2、二级定位:相对于一级定位,其他FAIL原因则更多的是与测试环境、测试数据紧密相关。比如被测系统调用第三方的API超时无返回,体现在CASE结果上是断言不通过,那么希望是能定位到这个原因上,也可以大大缩短定位的路径。做到这个层面的自动定位分析,需要解决二个问题。第一是将自动化CASE与业务系统的日志串联起来,业务系统首先建立起日志的trace机制,可通过唯一ID串联起一次API请求的过程。第二是针对业务日志常见逻辑异常的报错,建立错误信息规则库,FAIL的CASE透传关联ID到日志这边时,根据已有的错误信息规则库去检测日志范围内的匹配结果。这样可继续自动化排除掉60~70%左右的FAIL问题。


3.5 自动化CASE的有效性评估


在测试工作中对于测试交付的质量经常会有如下困扰:自动化 CASE的测试拦截效果如何?每次测试都 Pass 是否可以高枕无忧?需要证明自动化 CASE 能有效发现 bug,才能使得测试行为有信心,此即为测试有效性的含义。


15a0b18e9de9e8ddcba05d5b01af64bb.webp


如上为典型的一个有效性不足的CASE,即验证点覆盖不足,会遗漏对业务逻辑的校验。在业界用以做有效性评估的手段多数为变异测试,学术界也有对比分析语句覆盖率、分支覆盖率与变异测试评估的效果。


结合实际测试工作经验,可划分为四个评估的方向:

1、静态分析评估:根据自动化case自身的书写特点进行的设计合理性的检查评估,是最为基础的手段之一。

2、动态分析评估:根据case运行之后的结果评估执行效果。

3、变异测试评估:是一个研究非常多且有一定难度的评估手段,通过源代码生成变异体之后,检测case是否能发现变异,多用于白盒测试。

4、揭错能力评估:实际工作中,case存在特殊的问题,即存有较多同质化的case带来额外的执行开销,同时也有脆弱不稳定的case干扰测试结果,进而有需要评估治理。


65588361278e1f3a46ae37d31b04970e.webp


对于API测试而言,测试覆盖流程较长而不便于做代码程度的变异与检测。但可以先从基础的体现CASE本质的几大因素来评估,即综合了上述静态+动态的分析手段:


65dbb32c8f85d430aee51ec52b0e2978.webp


1、CASE规范性:基础的因素即断言,断言体现的是测试验证的覆盖,否则将出现只有代码覆盖率数据但没有检验点覆盖率。

2、代码覆盖率:代码覆盖率虽然不能作为检验测试质量的唯一标准,但它是基础,代码覆盖率低必然CASE覆盖程度薄弱。

3、CASE稳定性:CASE设计考虑不周全导致错误频发、性能波动较大意味着不可靠,稳定性差将非常打击测试结果的可信度。

4、CASE活跃度:被运行的频度、被暂停搁置的周期、被更新编辑的次数等等,表明了某个CASE是否已经不再活跃,变成了闲置CASE。

5、CASE复杂度:CASE组成内容过于复杂时,维护的代价、运行的稳定性风险都比较高。


综合上述数据特征,按不同权重对每一项进行评分,加总后给出CASE的评分。用于两个方面,一是CASE数据评估供后期维护CASE参考,二是测试报告实时披露CASE的质量风险。


7e708f73026e29767ffc931462495229.webp


四、总结


回顾API 自动化测试的智能化改造实践历程:由痛点问题出发、从点到线、全面覆盖,全方位优化 API 测试流程的效率与质量,为 API 测试作为主流的功能回归测试能力形成有力保障。

经过智能化测试的改造,API 的测试全流程更加精益求精,各个环节形成合理,全方位提升测试过程效率、测试质量。


3410a1935b39f127af6c537ab9226ec1.webp


— 本文结束 —


1da070b181eb7bc6d5199655b5a27a2d.webp

● 漫谈设计模式在 Spring 框架中的良好实践

● 颠覆微服务认知:深入思考微服务的七个主流观点

● 人人都是 API 设计者

● 一文讲透微服务下如何保证事务的一致性

● 要黑盒测试微服务内部服务间调用,我该如何实现?



关注我,回复 「加群」 加入各种主题讨论群。



对「服务端思维」有期待,请在文末点个在看

喜欢这篇文章,欢迎转发、分享朋友圈


76495fe5cc330bc31776e69797bf8e75.webp在看点这里f6fb42b553399c7395cff2c2f4d42dce.webp
浏览 27
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报