导游
在《从头到脚说单测——谈有效的单元测试(上篇)》中,主要介绍金字塔模型、为什么单方面、单方面阶段、指标等,下一篇介绍mock,以及如何不滥用Mock、用法编纂战略等更多精彩内容。
7.一定要说马克。
Test doubles
在《xUnit Test Patterns》一书中,作者首次提出了测试替身的概念。我们经常挂在嘴边的mock只是其中之一,是最容易与Stub(打桩)混淆的东西之一。从上一节对gomonkey的介绍可以看出,我没有使用mock。都是Stub。是的,gomonkey不是mock工具,只是高级打桩工具,很适合大多数使用场景。
测试频带,共5种:
多米对象(电视剧)
用于传递给调用方但实际上未使用的对象。通常只用于填充参数列表
Teststub
Stubs通常用于在测试中提供封装的响应。例如,编程设置不响应所有调用。Stubs还记录调用的记录。例如,电子邮件网关就是一个很好的例子,可以用来记录发送的所有信息或发送的信息的数量。简而言之,Stubs通常是真实对象的封装
Testspy
Test Spy像间谍一样放置在SUT内部,负责向外部传递SUT内部的间接输出(indirect outputs)。其特点是将内部间接输出返回测试案例,由测试案例进行验证。tespier不负责只获取内部信息,发送信息,验证信息的准确性。
Mock Object
封装适用于已建立的调用方法和需要响应的参数的对象
Fakeobject
Fake对象通常与类实现一起工作,但这是为了确保其他程序(如内存数据库)能够正常工作。
Stub和mock
木桩和mock应该是最容易混淆的,习惯上我们统一使用MoCK来描述毛衣耳朵能力,习惯成自然,经常把MoCK挂在嘴里。)
据我所知,stub可以理解为mock的子集,mock更强大。
MOCK可验证实施过程,并确认函数是否已运行,以及是否运行了多次。
Mock可以有条件地应用(例如,必须传递特定参数,mock效果才能生效)
Mock可以指定返回的结果
当指定任何参数返回固定结果时,Mock等于stub
但是,gomock工具Gomock仅作为界面运行,不适合新闻、企鹅项目。gomonkey的stub涵盖了大多数使用场景。
8.不要滥用mock
我把这部分一张一张地分开放,表明了它的重要意义。要读肖鹏的《mock七宗罪》。在gitchat。
两个门派
大约在2004-2005年间,江湖上形成了两大门派:古典测试驱动开发派和mockist(mock极端派)。
我先说mockist。他主张由测量的函数调用的所有外部函数,所有的mock。也就是说,只关注被测试函数本身的代码行,只要调用其他函数,都是mock掉的,用假数据测试。
此外,经典测试驱动开发派主张不要滥用mock,可以在没有mock的情况下进行mock,测试的单位也不一定是具体的函数。可能是多个函数,也可能是相连的。在需要的时候再次mock。
两个门派相争多年,理论各有利弊,至今仍共存。存在就是合理的。例如,mockist不能使用太多的mock复盖函数接口。这部分容易出错。古典派,绳子太多,还有综合测试的嫌疑。
对于实际应用程序,不需要强制遵循特定的派别。只要结合就行了。需要的时候mock,尽可能少的mock,不需要苦恼。
什么时候适合mock
如果对象具有以下特性,建议使用mock对象:
该对象提供不确定的结果(例如,当前时间或当前温度)
很难创建或再现对象的某些状态(例如,网络错误或文件读写错误)
对象方法的执行太慢(例如,在测试开始之前初始化数据库)
此对象尚未存在,或者行为可能会发生变化(例如,以测试为中心的开发驱动新类的创建)
此对象必须包含专门为测试而准备的数据或方法,这些测试不适用于静态类型语言,广泛使用的Mock框架不能向对象添加新方法。斯图布可以。)。
因此,不要滥用mock(stub)。在测试的方法中调用其他方法函数时,第一个反应必须进到里面,而不是从根部掉mock。
Ix。用例设计方法
看了一篇文章:像机器一样思考
章鱼
章讲述思考程序设计的根本思路——考虑输入输出。我们设计case,想要得到最全面的设计,根本是考虑全输入全输出的组合,当然,一方面,这么做耗时太大,很多时候是不可执行的;一方面,这不是想要的结果,要考虑投入产出比。这时,需要理论与实践相结合,理论指导实践,实践精细理论。先说理论
1. 还是从上篇文章说起,考虑输入、输出,就要先知道哪些属于输入输出:
2. 白盒&黑盒设计
白盒法:
·逻辑覆盖(语句、分支、条件、条件组合等)
·路径(全路径、最小线性无关路径)
·循环:结合5种场景(跳过循环、循环一次,循环最大次,循环m次命中、循环m次未命中)
黑盒法:
等价类:正确的,错误的(合法的,非法的)
边界法:[1,10] ==> 0,1,2,9,10,11(是等价类的有效补充)
3. 结合应用
全输入输出,实施难度较大,转而我们思考到业内大神们设计出白盒黑盒设计法,通过仔细思考,可以判断出是对全输入全输出的方法论体现。
因此,白盒&黑盒用例设计法,每一种我都亲自实践,理解其优缺点,从设计覆盖角度,条件组合>最小线性无关路径>条件>分支>语句。
下面这张图,是我早期思考用例设计时的一次实践,现在回忆起来,它过度设计了。
但实际中,我们担心“过度设计”,也还无法给出答案“用什么方法设计保证万无一失”。
·过度设计,也会使case脆弱
·在有限的时间内,我们寻求收益较大化
1. 小函数&重要(计算,对象处理):尽量设计全面
2. 逻辑较重,代码行数较多:分支、语句覆盖 + 循环 +典型的边界处理(我们看个例子:GetUserGiftList)
3. 引出“基于实现”与“基于意图”的设计:过多去Stub被测函数内部的调用,就越接近“基于实现”(第二次提到“基于意图”)
十. 基于意图与基于实现
这个话题是非常重要的。
基于意图:思考函数最终想做什么,把被测函数当做黑盒,考虑其输出输出,而不要关注其中间是怎样实现的,究竟生成了什么临时变量,循环了几次,有什么判断等。
基于实现:输入输出我也考虑,中间怎么实现的我也考虑。mock就是一个好例子,比如我们写一个case,我们会用mock去验证函数内是否调用了哪个外部方法、调用了几次,语句的执行顺序是怎样的。程序的变动比需求还快,重构随时都有,稍有一变,case大批量失败,这也是《mock七宗罪》中提到的一种情况。
我们要的是基于意图,远离基于实现。
结合实战经验,我总结如下:
1. “要么写好,要么不写”。case也是代码,也需要维护,也有工作量,所以要写的到位,而不是写得多。写了一堆没用的,你还得维护,不如删了。
2. 拿到一个函数,先问问自己,这个函数要实现什么功能,最终输出是什么;然后,问自己,这个函数的风险在哪里,哪部分逻辑不太自信,最容易出错(计算、复杂的判断、某异常分支的命中等)。这些才是我们case要覆盖的点。
3. 内联函数、直接get/set,没几行没什么逻辑的,只要你判断没什么风险,就不用写case。
4. 确定了要写的case,再用分支条件组合、边界等核心方面设计出具体用例,实施编写。
可以结合新闻几次单测case review记录,来详细理解。
我们看一个具体的case:
1. 拿到这个函数,作为测试同学的我先向开发了解该函数的意图:对符合格式、符合时间的用户礼物进行加和
2. 读代码,了解了代码流程、几个异常分支,先做了code review
3. 根据必要的异常分支,设计case覆盖
4. 对正常的业务流程,是按照开发讲述的函数意图,进行设计,case如下:
被测函数
正常路径的单测case
func TestNum_CorrectRet(t *) {
giftRecord := map[string]string{
"1:1000": "10",
"1:2001": "100",
"1:999": "20",
"2": "200",
"a": "30",
"2:1001": "20",
"2:999": "200",
}
expectRet := map[int]int{
1: 110,
2: 20,
}
var s *redis.xxx
patches := gomonkey.ApplyMethod(s), "Getxxx", func(_ *redis.xxx, _ string)(map[string]string, error) {
return giftRecord, nil
})
defer ()
p := &StarData{xxx }
userStarNum, err := p.GetNum(10000)
a(t, err)
a(t, Calorie.StructToString(expectRet), Calorie.StructToString(userStarNum))
}
有同学会问到:但是你最终还是看的代码呀?看到代码的正确逻辑是怎么处理的,再去设计的case和构造数据吧?而且你不看代码,怎么知道有哪些异常分支要覆盖呢?
答:1. 我现在作为测试同学写开发同学的case,确实需要知道有哪些异常分支要处理, 但不局限于代码中的几种,还应该包括我理解到的异常分支,都要体现在case中。我们的case绝不是为了证明代码是怎么实现的!通过单测,我们经常能够发现bug。但是将来是开发来写单测的,他自己设计的函数肯定知道要覆盖哪些异常分支。
2. 嗯,我需要看代码的正常流程是怎样的,但不代表着把代码扒下来以设计出case。case实际上是通过与开发的沟通后,了解输入数据的结构,输出的格式,数据校验和计算的过程,去设计输入输出的。
十一. 用例编写的策略
对于怎么个顺序去写单测,我们重点实践了一番,基本上也就三种情况吧:
·独立原子:mockist,被我们推翻了。当然,最底部的函数可能没有外部依赖,那单测它就够了。
·自上而下(红线):从入口函数往下测。实践的过程中,我发现很难执行,因为我从入口处就要想好每一次调用都需要返回哪些数据及格式,串起来一个case已经非常不易。
·自下而上(黄线):我们发现,入口函数,往往没什么逻辑,调用另一个函数然后拿到响应返回。所以入口函数,也许不用写?我们继续往下看,每一次调用的函数都看,也调出了以往的线上线下bug,我们发现出现问题的代码部分往往是调用链的底端,尤其是涉及计算、复杂分支循环等。而且,底端的函数往往可测性较好。
因此,考虑两方面,我们选择自下而上设计来选择函数编写case:
1. 底部的函数可测性通常很好
2. 核心逻辑比较多,尤其涉及计算、拼接,分支的。
十二. 可测性问题的解决——重构
导致无法写单测的重要原因是,代码可测性不好。如果一个函数八九十行、二三百行,基本就是不可测的,或者说“不好测的”。因为里面逻辑太多了,从第一行到最后一行都经历了什么,各种函数调用外部依赖,各种if/for,各种异常分支处理,写一个case的代码行数可能是原函数的几倍。
因此,推动单测走下去,重构提升可测性是必须环节。而且,通过重构,代码结构间接清晰了,更可读可维护,更容易发现和定位问题。
常见的问题:重复代码、魔法数字、箭头式的代码等
推荐的理论书籍是《重构:改善既有代码的设计》第二版、《clean code》
我输出了一篇关于重构的文章。
使用codecc(腾讯代码检查中心)的圈复杂度、函数长度来评估代码结构质量,我们与开发一起学习,一起实践,不断有成果输出。
对于箭头式的代码,可考虑如下步骤:
1. 多使用卫语句,先判断异常,异常return
2. 将判断语句抽离
3. 将核心部分抽离为函数
十三. 用例维护,可读性、可维护性、可信赖性
用例设计要素
·将内部逻辑与外部请求分开测试
·对服务边界(interface)的输入和输出进行严格验证
·用断言来代替原生的报错函数
·避免随机结果
·尽量避免断言时间的结果
·适时使用setup和teardown
·测试用例之间相互隔离,不要相互影响
·原子性,所有的测试只有两种结果:成功和失败
·避免测试中的逻辑,即不该包含if、switch、for、while等
·不要保护起来,try…catch…
·每个用例只测试一个关注点
·少用sleep,延缓测试时长的行为都是不健康的
·3A策略:arrange,action,assert
用例可读性
· 标题要明确表明意图,如Test+被测函数名+condition+result。case失败后,通过名字就知道哪个场景失败,而不用一行行再读代码。将来维护这个测试代码的,可能是其他人,我们需要让别人容易读懂
·测试代码的内容要清晰,3A原则:arrange,action,assert 分成三部分。数据准备部分arrange如果代码行较多,考虑抽离出去。
·断言的意图明显,可以考虑将魔法数字变为变量,命名通俗易通
·一个case,不要做过多的assert,要专一
·和业务代码的要求一致,都要可读
用例可维护性
·重复:文本字符串重复、结构重复、语义重复
·拒绝硬编码
·基于意图的设计。不要因为业务代码重构一次,就导致一批case失败
·注意代码的各种坏味道,可参见《重构》第二版
用例可信赖性
单元测试,小而且运行快,它不是为了发现本次的bug,更是为了放在流水线上 努力发现每一次MR是否产生了bug。单测运行失败,唯一的原因只应该是出现bug,而不是因为外部依赖不稳定、基于实现的涉及等,长期的失败将失去单元测试的警示作用,“狼来了”的故事是惨痛的教训。
·非被测程序缺陷,随机失败的case
·永不失败的case
·没有assert的case
·名不副实的case
十四. 新闻单元测试的推动过程
我们提到,对单元测试的实践分为4个阶段,每阶段均有目标。
第一阶段 会写,全员写,不要求写好
·由上而下的推动,从总监到组长,极力支持,毫无犹豫,使组员情绪高涨
·快速确定单测框架,熟练使用
·结合开发需求,输出各场景下 单测框架的使用方法,包括assert、mock,table-driven等
·封装http2WebContext,方便生成context对象
·多次培训,讲解单测理论及框架使用
·各团队(终端、接入层)指定单测接口人,由他先尝螃蟹。他是最熟悉框架使用,在前期写最多case的人
·在磨合好单测框架的集成使用后,启动会,部分同学先试点使用,确保连续两个迭代,这几个同学都有case输出
·每个迭代总结数据中,加入单测相关数据:组长和总监非常关注单测数据信息,针对性鼓励提升case数量和代码行数
第二阶段 写好,有效,全员写
· 测试同学探索出mock的正确使用方法、用例设计的正确思路,分享给团队,经过探讨达成一致
· 结对编程,每迭代结对2-3个开发,共同写case,互相提升。
这里的结对是灵活的:有的开发,只需用半天的时间给他讲框架使用,同他练习,他就可以上手了不需要再担心;有的开发,会分给测试同学需求,测试同学写完case后,开发review学习,并尝试写出自己的第一个case;有的开发,一开始可能不太接受,以需求不适合单测为理由,观察了一段时间,他发现其他人都写了,也没那么难,对团队也有利,他甚至会主动找到测试同学教他写case。
·测试同学对开发提交的case进行review,跟进开发修改后重新MR
·连续两个迭代,邀请dot老师、乔帮主进行case review,效果非常好
·对迭代的单测数据分析,关注需求覆盖度、人员覆盖度,case增量
·组长持续鼓励支持单测
·每迭代的需求增加“单元测试”字段,由组长评估后置位。不带单测的MR不予通过,单测也要被review
第三阶段 可测性提升
·测试和开发共同学习《重构》第二版,每周有分享会
·某些骨干同学优先重构自己的代码
·测试同学严格要求,先保证有单测,然后小步重构,每一步均有单测保障
·通过流水线的codecc扫描,圈复杂度和函数长度必须达标,不可人工干预其通过
第四阶段 TDD
·先不保证开发同学做到TDD,门槛还是挺高的,而且需要在线下熟练之后再运用到业务开发中
·逐步推动开发将业务代码和测试代码同步编写,而不是完成业务代码后再补case
·测试同学练成TDD
十五. 流水线
单测要放在流水线上跑,客户端和后台都配好了流水线,保证每次push和MR都运行一次,发报告。
对于go的单测,新闻接入层各模块是通过MakeFile来编译,因为要导入一些环境变量,所以我将go test集成在MakeFile中,执行make test即可运行该模块下所有的测试用例。
GO = go
CGO_LDFLAGS = xxx
CGO_LDFLAGS += xxx
CGO_LDFLAGS += xxx
CGO_LDFLAGS += xxx
TARGET =aaa
export CGO_LDFLAGS
all:$(TARGET)
$(TARGET): main.go
$(GO) build -o $@ $^
test:
CFLAGS=-g
export CFLAGS
$(GO) test $(M) -v -gcflags=all=-l -coverpkg=./... -coverprofile= ./...
clean:
rm -f $(TARGET)
注:上述做法,只能生成被测试的代码文件的覆盖率,无法拿到未被测试覆盖率情况。可以在根目录建一个空的测试文件,就能解决这个问题,拿到全量代码覆盖率。
package main
import (
"fmt"
"testing"
)
func TestNothing(t *) {
("ok")
}
流水线加上流程
# cd ${WORKSPACE} 可进入当前工作空间目录
export GOPATH=${WORKSPACE}/xxx
pwd
echo "====================work space"
echo ${WORKSPACE}
cd ${GOPATH}/src
for file in `ls`:
do
if [ -d $file ]
then
if [[ "$file" == "a" ]] || [[ "$file" == "b" ]] || [[ "$file" == "c" ]] || [[ "$file" == "d" ]]
then
echo $file
echo ${GOPATH}"/src/"$file
cp -r ${GOPATH}/src/tools/qatesting ${GOPATH}/src/$file"/."
cd ${GOPATH}/src/$file
make test
cd ..
fi
fi
done
附录. 资料
·《测试驱动开发》
·《单元测试的艺术》
·《有效的单元测试》
·《重构,改善既有代码的设计》
·《修改代码的艺术》
·《测试驱动开发的三项修炼》
·《xUnit Test Patterns》
·mock七宗罪
关注腾讯WeTest,了解更多热门测试产品:首页 - 腾讯WeTest-All Test in WeTest