11 个高效的同行代码评审最佳实践(转载)

时间:2022-12-05 03:29:45

11 个高效的同行代码评审最佳实践

使用 SmartBear CodeCollaborator 与 Rational Team Concert 进行轻量级代码评审

Jason Cohen, CodeCollaborator 初始架构师, SmartBear Software

简介: 这 11 项针对轻量级高效同行代码评审最佳实践被证明是有效的,它们建立在一个通过结合使用 IBM® Rational Team Concert™ 与 SmartBear CodeCollaborator 对 Cisco 系统的开发进行案例研究的基础之上。它们可以帮助您确保评审既能够改进您的代码,又能利用好开发人员的时间。

本文的标签:  11, best_practices, eclipse, process_management, 个高效的同行代码评审最佳实践, 代码评审, 团队开发, 应用开发, 质量保证, 软件开发生命周期

标记本文!

发布日期: 2011 年 5 月 04 日
级别: 中级 原创语言: 英文
访问情况 5125 次浏览
建议: 0 (添加评论)

11 个高效的同行代码评审最佳实践(转载)11 个高效的同行代码评审最佳实践(转载)11 个高效的同行代码评审最佳实践(转载)11 个高效的同行代码评审最佳实践(转载)11 个高效的同行代码评审最佳实践(转载) 平均分 (共 6 个评分 )
下载试用版:IBM® Rational® Team Concert 标准版  |  IBM® Rational® Team Concert 免费版
下载更多的 IBM 软件试用版,并加入 IBM 软件下载与技术交流群组,参与在线交流。

 

SmartBear Software 团队® 花费了数年时间去搜索已有的代码评审研究成果,并从来自超过 100 家公司的 6000 多名程序员那里,收集了“实践经验”。很显然,人们在评审代码时会发现一些错误(bug),但是这种评审工作通常会花费大量的时间,因此变得不太实际。我们通过数十年的经验使用获得的信息,来创建轻量级代码评审的概念。通过使用轻量级代码评审技术,开发员只需要花费五分之一的时间就可以进行全面且规范的代码评审工作了。我们还开发了最佳实践的理论,以便部署实现评审的效率与价值。本文概括了以下的这些实践。

访问 developerWorks 社区上的 敏捷开发小组,在那里您将有机会与更多的开发人员一起交流敏捷开发最佳实践。

为了测试我们对代码评审及轻量级评审的结论,我们对代码评审进行了最大规模的研究工作。它涉及包含了2500 个代码评审案例,50 个程序员,及 Cisco 系统上320 万行的代码。在 10 个月的时间内,研究追踪了 MeetingPlace 产品团队,该团队拥有 Bangalore,Budapest 及 San José 方面的成员。

在研究开始时,我们要为这个团队创建以下的规则:

  • 在检入到团队的版本控制软件之前,所有的代码都必须进行评审。
  • SmartBear 的 CodeCollaborator® 代码评审软件工具,应该用于精化,组织和改进所有的代码评审工作。
  • 代码评审的全体会议是不支持的。
  • 评审过程会得到工具的支持。
  • CodeCollaborator 会自动收集工具,提供评审层次和总结层次的报告。

根据我们的研究结果,总结了 11 项最佳实践

您应该警惕,平等代码评审(在该过程中,软件发布以确保质量之前,软件开发员会相互评审代码)会识别代码中存在的错误(bug),鼓励协作,并使代码变得更有维护性。

但是很明显的一点是,有些代码评审技术是低效低能的。评审过程中的一些会议会占用时间,并抑制活力。严格的流程会扼杀创造力,但是松散的流程又意味着没人知道评审是否有效,甚至是否发生。而个人批评的社会效应,又会损伤士气。

本文描述了考虑效率时的 11 项最佳实践,科学研究和 SmartBear 领域内的经验证明轻量级同行评审是高效的。使用这些技术,可以确保代码评审能够改进代码 - 而不用占用开发员的时间。您可以使用最近的技术,来在 IBM® Rational Team Concert® 环境之中评审代码。

1. 一次评审量要低于 200–400 行代码

Cisco 代码评审研究(见于工具栏)显示了为了得到优化的效率,开发员的评审量要低于一次 200-400 行代码(LOC)。超过这个量,搜索缺陷的能力就会降低。以这个速度,您可以找到 70-90% 的缺陷。换句话说,如果存在 10 个缺陷,那么您可以找到其中的 7 到 9 个。

关于 Cisco 案例研究

在 10 个月的监视工作之后,研究总结出了一个理论:如果适当操作的话,轻量级代码评审工作与规范的评审工作同样有效,但是前者的速度会更快(更省时)。与规范评审相比,轻量级代码评审平均要少花 6.5 个小时,并发现更多的错误(bug)。
除了确认这些理论,研究中还发现了一些新的规律,本文将这些规律都概括了出来。

图 1 中的图,描述了缺陷密度与评审代码行数量之间的关系,支持该规则。缺陷密度 就是每 1000 行代码之中所发现的错误(bug)数。评审代码行的数量超过 200 时,缺陷密度就会急剧地下降。

在这种情况下,缺陷密度就是“评审有效性”的评价手段。如果两个评审员评审相同的代码,其中一个发现了更多的错误(bug),那么我们就会认为该评审员更有效率。图 1 显示了当我们将更多的代码放到评审者面前时,她搜索缺陷效率的变化情况。这种结果很合理,因为她可能不会花费大量的时间去评审,这样就会不可避免的使得效率没有以前高。


图 1. 当代码行数量超过 200 时缺陷密度就会急剧下降,400 以后缺陷密度几乎为 0
11 个高效的同行代码评审最佳实践(转载)

2. 每小时低于 300–500 LOC 检查率的目标

定义

  • 检查率: 我们能够多快地评审代码呢?通常以每小时 kLOC(千代码行)来评价。
  • 缺陷率: 我们能够多快地发现缺陷呢?通常以每小时缺陷数来评价。
  • 缺陷密度: 给定量的代码之中我们能够发现多少的缺陷呢(而不是它们有多少)?通常以每 kLOC 中发现的缺陷数来评价。

您要花点时间进行代码评审。快速评审并不总是好的。我们的研究结果显示检查率低于“300-500 LOC/小时”时,可以得到优化的结果。根据所作的决定,评审者的检查率有很大的变化,就算是相似的代码开发者、评审者,文件和评审规模,也存在巨大的差异。

为了找到优化的检查率,我们将 缺陷密度 与评审者检查代码的 速度 进行了比较。得到的结果再一次落在了我们的预料之中:如果在评审您不花足够的时间,那么您就不会发现太多的缺陷。如果评审者面临大量代码的压力,那么他就不会每一行代码投入相同的注意力。他不能研究同一位置处更改的所有版本。

所以,多快算是太快呢?图 2 显示了答案:服务器端每小时超过 400 LOC 的评审速度会降低效率。而每小时 1000 LOC 的速度,您可能已经推出了,以这样的速度评审员可能根本都没有细看代码。


图 2. 评审量超过 500 行代码时检查效率就会下降了
11 个高效的同行代码评审最佳实践(转载)

3. 花足够的时间进行适当缓慢的评审,但是不要超过 60-90 分钟

永远不要对一个原型代码评审超过 60-90 分钟

我们应该讨论,为了得到更好的结果,不应该过快地评价。但是您也不应该在一个位置花太多的时间。大约 60 分钟后,评审者就会感到疲劳,于是就不会找到额外的缺陷了。这个结论得到了许多其他研究的支持。实际上,根据我们的常识,当人们从事注意力高度集中的活动时,性能状态在 60-90 分钟之后就会降低了。考虑到人体方面的限制,评审者在性能降低之前,不能评审超过 300–600 行的代码。

但反过来说,评审代码所花的时间不得低于五分钟,就算代码只有一行也是如此。通常来说,单行的代码也会影响到整个的系统,所以花上五分钟时间去检查更改可能造成的结果是值得的。

4. 确定在评审开始之前代码开发者已经注释源代码了

在评审开始之前代码开发者可能就消除大多数的缺陷,这一点我们将会看到。如果我们需要开发员双倍地检查他们的工作,那么评审可能更快地完成,而不用再去折中考虑代码质量的问题。就我们所知,这种特定的想法尚未得到研究,所以我们在 Cisco 研究期间对其进行了测试。


图 3. 代码开发者准备对缺陷密度的震撼性效果
11 个高效的同行代码评审最佳实践(转载)

代码开发者准备 说的是代码开发者在评审之前要先注释他们的源代码。我们发明了这个术语,以描述研究中所评价的特定行为模式,大约 15% 的评审会阻止代码开发者这样做。注释会指导评审者进行变更,显示首先必须要查看的文件,并找到每一次代码更改的原因。这些注释不是代码之中的评论,而只是给其他评审者看的评论。

我们的理论就是,因为代码开发者需要重新考虑,并解释注释过程中所发生的更改,所以代码开发者需要在评审开始之前就找出许多缺陷,以让评审变得更加有效。如此,评审过程将会产生低密度的缺陷,因为更少的错误(bug)剩余了。很明显,与没有代码开发者准备的评审相比,代码开发者准备之后的评审有更少的缺陷存在。

我们还考虑过一个悲观的理论,以解释错误(bug)的低发现率。是不是当代码开发者在作出一项评论时,评审者会有偏见,或者自鸣得意,这样就不能尽可能多地发现错误(bug)了呢?我们随机抽查了 300 个评审者进行研究,结果证实评审者在评审代码时确实非常小心,更少的错误(bug)被发现了。

5. 为代码评审创建可定量化的目标,并获取制度,这样您就可以改进流程了

有了项目,您就该决定代码评审过程的目标,以及怎样评价效率问题了。当您在定义特定的目标时,您就能够决定同行评审是否真的达到了您所需要的结果。

最好从外部性的制度开始,例如“将支持访问降低 20%”或者“使开发引入的缺陷百分比减半”。这些信息使您能够更好地看清,从外部视角来看,代码能够做些什么,您还需要一个可定量化的评价手段,而不是“修复更多错误(bug)”的模糊目标。

但是,在外部制度显示结果之前需要花上一段时间。例如,支持性访问将不会得到影响,直到新的版本得到发布并交到客户手中为止。所以查看内部性流程工具,以得到发现多少缺陷,缺陷就是问题所在,以及开发员在评审上所花时间的清晰结果。代码评审的最常见内部性制度是 检查率缺陷率,以及 缺陷密度

考虑一下只有自动化或者紧密控制的流程,才能给您带来可重复的代码;人类并不擅长记住启动或者终止计时器。为了得到最好的结果,您要使用能够 自动 收集代码的代码评审工具,这样用于流程改进的关键代码就是精确的了。

为了改进和提高您的流程,您可以收集代码并组合流程,以查看更改是如何影响结果的。很快,您就将会知道什么工作最适合您的团队了。

6. 使用检查表,因为它能极大地影响代码开发者和评审者的结果

使用检测表对于评审员非常重要,如果代码开发者忘记了某项任务,评审员也同样可能忘记。

我们极力推荐您使用检查表,来确定您可能会忘记的事情,它对代码开发者和评审者都有用。忽略是最难发现的缺陷;毕竟,评审不在那里的东西是很困难的一件事。检查表是解决这个问题的最好方式,因为它会提醒评审者和代码开发者花点时间去考虑一下可能被遗忘的事情。检查表还会提醒代码开发者和评审者确定所有的错误(bug)都得到了处理,软件功能已经通过了无效值测验,而且已经创建了单元测试。

另外一个有用的概念就是 个人检查表 。每个人一般都会犯 15-20 个错误(bug)。如果您注意到了一些典型的错误(bug),那么您就可以开发自己的个人检查表(Personal Software Process,Software Engineering Institute,以及 Capability Maturity Model Integrated 也都推荐该实践方式)。评审者将会完成决定一般性错误(bug)的工作。您所应该做的,就是拥有一个简短的检查列表,一般都是您容易遗忘的事情。

一旦您开始在检查列表中记录自己的缺陷,那么您就会少犯错了。规则将不断出现在您的脑海中,然后您的错误(bug)率就会下降了。这种情况我们将会发现它反复出现。

提示:
如果您想要得到关于检查列表的更多具体信息,那么您可以得到本文代码开发者所写书籍的免费拷贝,这本书为 Best Kept Secrets of Peer Code Review,网址为 www.CodeReviewBook.com

7. 确认缺陷得到了修复

是的,这种“最佳实践”看起来好像是没有脑子的。如果您遇到了评审代码以找到缺陷的所有问题,那么修复它们就变得顺理成章了!现在许多评审代码的团队没有一种好的办法,去追踪评审期间找到的缺陷,并确保评审完成之前错误(bug)确实得到了修复。确认电子邮件之中的结果,或者实时评审是非常困难的。

记住这些错误(bug)通常不是在 Rational Team Concert 日志中输入的,因为在代码发布给 QA 之前就发现了这些错误(bug)。所以,什么是代码在贴上“全部解决”标志之前确认缺陷的好办法呢?我们建议使用好的协作性评审软件,与 Rational Team Concert 相集成,以追踪评审之中所发现的缺陷。有了正确的工具,评审员就可以记录错误(bug),并在必要时与代码开发者进行讨论了。然后代码开发者会修复问题,并通知评审者,而评审者必须确认每个问题都得到了解决。工具应该追踪评审期间所发现的问题,并确保直到所有的错误(bug)被评审者 修复 才完成评审(或者作为稍后解决的单独工作项追踪)。工作项只有在评审完成时才能通过。

如果您真面临着搜索错误(bug)的烦恼,那么请确认您已经将它们全部安装了!

既然您已经学会了代码评审 流程 的最佳实践方式,那么我们接下来将会讨论一些社会效应,以及怎样管理它们以获得最佳的结果。

8. 培养良好的代码评审文化氛围,在这样的氛围中可以积极地评审缺陷

与其他我们能看到的大多数技术相比,代码评审对于真实团队构建能够发挥更大的作用,但是只是在管理人员能够以一种积极的,向上的,有技巧的方式进行交流时,这种优势才能发挥出来。将缺陷看做是不好的事物很容易(毕竟,它们是代码之中的错误(bug)),但是形成不好的缺陷检查态度,则会毁掉整个团队的努力,更不要说它会破坏错误(bug)检查过程了。

软件代码评审的要点在于,尽可能多的消除缺陷,不管是谁“导致”了错误(bug)。

管理人员必须建立缺陷是积极的这样的观点。毕竟,每一个缺陷的存在,都是改进代码的潜在机会,而错误(bug)评审过程的目的,就在于使代码尽可能地完美。每一个被发现并解决的缺陷,都是客户以后不会看到的缺陷,也是 QA 人员不必花费时间去解决的问题。

团队需要维持这样一种态度,就是发现缺陷,就意味着代码开发者和评审者 作为一个团队 去改进产品的质量成功了。而不是“代码开发者产生了一个缺陷,而评审者负责去发现它”。它更像是配对编程的一种有效形式。

评审员要向所有的开发者展示收集坏习惯,学习新技巧,并展开功能的机会。开发员可以从他们的错误(bug)中学习,但是只是在他们警惕错误(bug)时才会这样。如果开发员害怕发现错误(bug),那么积极的结果就会消失。

如果您是一名初级开发员,或者是一个团队的新成员,那么其他人发现缺陷时,就意味着您强有力的队友在帮助您成长为一个合格的开发员。这就比您单枪匹马地编程,没有具体的反馈时,要更快地进步。

为了维持检查缺陷是积极的这样一种理念,管理人员必须要承诺缺陷密度不会进入到性能报告之中。公开作出这种承诺是很有效的。这样开发员就会知道他们要怎样做,并*公开破坏这条规则的管理人员。

管理人员绝不应该将错误(bug)代码作为消极性能评审的基础。他们必须谨慎对待,并对批评造成的挫折感及消极反应保持敏感,并要一直提醒团队发现错误(bug)是一件很好的事情。

9. 警惕老大哥效应(Big Brother Effect)

作为一个开发员,您可以自动假设“老大哥正看着您呢”是真的,如果评审制度是由评审支持工具自动评价的,更是这样的。您是否花费了很长的时间去评审一下更改?您的同行从您的代码中是否发现了很多错误(bug)?这将如何影响您下一步的性能评价?

评估报表不应用来对付开发人员,尤其是在面对结对评审员时。这一做法会严重破坏道德观。

制度对于流程评价来说非常重要,这反过来,又为流程改进提供了一个基础。但是制度也可以被用来做坏事。如果开发员相信制度是用来对付他们的,那么他们不光是对流程有敌意,而且他们的注意力可能转到改变制度,而不是编写更好的代码,和变得更有效率上。

管理员可以做很多事情,来解决这个问题。首先也是最重要的,他们必须要警惕这一点,并且必须确定代码开发者没有面临很多的压力,而“老大哥”问题必须每次都得到详细的检查。

制度应该用来评价流程的效率,或者流程更改的效果。记住,通常来说,最困难的代码是由最有经验的开发员处理的。这些代码,反过来,最有可能出问题,因此最难检查,也有可能发现最多的缺陷。因此,大量的缺陷很有可能是由复杂性,以及代码的分块性造成的,而不是代码开发者的能力造成的。

如果制度确实能够帮助一个管理员去发现一个问题,那么将某人踢出局可能会产生更多的问题。我们推荐管理员在解决相关问题时,要将一个小组当做整体来对待。所以最好不要召开专门的会议,因为开发员在解决特定的问题可能会有压力。相反,您可以通过一个每周状态会议,或者正常的程序来解决问题。

管理员必须不断地维持这样一个年头,即搜索缺陷是好的事情,而不是糟糕的,缺陷密度与开发员的能力并不是挂钩的。记住对一个团队来说,缺陷,尤其是团队成员所引入缺陷的数量不应该被回避,也不应该用作能力的评价参数。

10. 评审一部分的代码,就算您不能全部完成,以从自我效能感(Ego Effect)中获益

想象一下您自己坐在编译器的前面,任务是需要修复一个小小的错误(bug)。但是您知道只要您说出了“我完成了”,您的同行 — 或者更糟,您的老板 — 就要检查您的工作了。这会改变您的开发个性吗?所以在您工作时,一般是在您声明代码评审完成之前,就会更加的谨慎了。如此您立即就会成为一个更好的开发员了,因为在您背后别人议论您时就会说,“他的员工非常谨慎,他真是一个不错的开发员”;而不是“他犯了大量愚蠢的错误(bug)。当他说工作完成时,实际上还差着远呢”。

自我效能感(Ego Effect)会促使开发员编写更好的代码,因为他们知道其他人将会查看自己编写的代码及作品。没有人想被其他人认为自己经常犯初级的错误(bug)。Ego Effect 促使开发员在向其他人交付作品时更加谨慎地进行评审。

Ego Effect 的一个良好特征,是不管评审者要对所有的代码变更负责,还是仅仅执行“点检查”,就像随机性的药物测试一样,都能正常地发挥作用。如果您的代码有三分之一的几率被评审者抽中进行评审,那么它仍然足以刺激评审者谨慎工作。如果您只有十分之一的概率被抽中检查,那么可能您就不会如此勤奋了。您知道您会说,“哈,我很少犯错”。

评审 20–33% 的代码时,从 Ego Effect 中获得花费时间方面的收益可能最大,评审 20% 的代码肯定要比不评审强很多。

11. 采用轻量级,工具支持的代码评审

代码评审一般有些主要的类型和无数的变数,而指南却能适用它们中的任何一个。但是,为了完全优化团队花在评审之上的时间,我们要使用工具支持的轻量级评审过程来得到最优的结果。搜索缺席时,它是有效的,实用的。

规范,或者 重量级的 检查已经流行了 30 年。它已经不是评审代码的有效形式了。重量级检查平均花费的时间是每 200 行代码 9 个小时。尽管它很有效,但是严格的过程需要三到六个参与者,并进行一系列繁琐的会议以讨论具体的细节。不幸的是,尽管需要繁琐的过程,但是大多数的公司没有条件将编程人员集成起来,进行长时间的会议。最近的几年,许多开发公司已经完全放弃了会议安排,纸质代码阅读,以及繁琐的作品收集工作,转而采用新型 轻量级 过程,以从规范的会议及老式重量级过程的重压中解放起来。

我们使用在 Cisco 中的案例研究,来确定轻量级技术与规范过程比较的特点。结果显示轻量级代码评审所需要的时间只是规范评审的五分之一(甚至更少),而且前者能够发现更多的错误(bug)。

尽管轻量级代码评审拥有很多的方法,例如实时评审和电子邮件评审,但是最有效的评审方法还是使用协作性的软件工具来促进评审,这些软件工具例如 SmartBear 的 CodeCollaborator(见于图 4)。


图 4. Cisco 研究中所使用到的轻量级代码评审工具,CodeCollaborator
11 个高效的同行代码评审最佳实践(转载)

图 4 的大图

CodeCollaborator 是与 IBM® Rational Team Concert 工作流程相集成的唯一代码评审工具。它将源代码评审与聊天形式的协作集成起来,从而使开发员从联系注释与私人代码行的繁琐活动中解放了出来。当程序员向工作项添加更改项进行评审时,在 CodeCollaborator 中将会自动创建评审,并分配适当的批准者。团队成员可以直接注释代码,与代码开发者聊天,并就每一个问题进行协作,追踪错误(bug)并修复缺陷。整个过程不需要会议,打印,或者安排日程。

有了基于 Rational Team Concert 与 CodeCollaborator 的轻量级评审过程,团队就可以进行更有效的评审,并实现代码评审的有利点。

11 个高效的同行代码评审最佳实践(转载)CodeCollaborator 获得了 "Ready for IBM Rational Software" 针对 Rational Team Concert V2 和 V3 的认证,以及针对 IBM® Rational® ClearCase® 和 IBM® Rational® Synergy® 的认证。

到现在为止,您已经被经实践证明有效的经验从头到尾武装起来了,以确保从过程和社会的角度来看,团队在代码评审过程之中能够节省大量的时间。当然,您必须确实 完成了 代码评审,以实现这些便利。对 100% 的代码使用评审的规范方法(有人对这个百分比存在异议,简单来说是不现实的。集成到 Rational Team Concert 环境之中的工具支持轻量级代码评审,提供了最强大的功能,因为它提供了一个有效的方法去搜索缺陷,而且不会涉及到开发员头痛的一些问题。有了正确的工具和这些实践方式,您的团队就可以对所有的代码进行同行评审,并在软件达到 QA 阶段之前就找到成本极高的错误(bug),这样您的客户每次都能够得到*品质的产品了。

为了方便您查看,下面总结了在一个简单列表中最容易保持的 11 项实践方式:

  1. 一次评审少于 200–400 行的代码。
  2. 目标为每小时低于 300–500 LOC 的检查速率。
  3. 花足够的时间进行正确缓慢的评审,但是不要超过 60–90 分钟。
  4. 确定代码开发者在评审开始之前就已经注释了源代码。
  5. 为代码评审和获取制度建立可定量化的目标,这样您才能改进流程。
  6. 使用检查列表,因为它可以极大地改进代码开发者和评审者的作品。
  7. 确认缺陷确实得到修复了。
  8. 培养良好的代码评审文化氛围,在这样的氛围中搜索缺陷被看做是积极的活动。
  9. 警惕“老大”效应。
  10. 最少评审一部分代码,就是您不能评审全部的代码,以从 Ego Effect 中受益。
  11. 采用轻量级,能用工具支持的代码评审。

 

参考资料

学习

获得产品和技术

讨论

  • 访问 developerWorks 社区上的 敏捷开发小组,在那里您将有机会与更多的开发人员一起交流敏捷开发最佳实践。
  • 加入 Rational Team Concert 讨论区,或在 Jazz.net 讨论区 提出问题。
  • 加入到 developerWorks 中文社区 中。与其他 developerWorks 用户沟通,关注开发驱动的博客,讨论区,例如 Rational Café 和 Rational 维基。

关于作者

11 个高效的同行代码评审最佳实践(转载)

Jason Cohen 是 CodeCollaborator 的初始架构师和 SmartBear Software 的创建人。在他的公司被收购之后,他继续参与许多新的 SmartBear 软件的战略发起人,并且经常进行有关同行代码评审收益的演讲。他也是其它三个公司的创建人,包括 WPEngine 和 ITWatchDogs。更多有关 SmartBear Software 的信息,请访问 www.smartbear.com