【论文解析】MTCNN论文要点翻译

时间:2024-01-21 18:21:44

@

0.论文连接

点击打开

1.前言

MTCNN是一篇关于人脸检测算法效果很不错的论文,落地效果也很好,据我所知有不少公司在用这个算法做人脸检测。

2.论文Abstract翻译

在无约束环境下,人脸的检测与对齐对于不同的姿势,灯光和遮挡是非常有挑战性的。近期的学术研究证明了深度学习方法在这两个任务上能够实现令人钦佩的性能。本文,我们提出了一个深度级联多任务框架,它能够利用人脸检测与对齐的内在相关性来提高他们的性能。尤其是我们的框架利用级联架构,分三个精心设计的深度卷积神经网络通过由粗糙到细致的方式来预测脸部整体和特征点的坐标。另外,我们提出了一种新的在线挖掘困难样本的策略,这样可以更好的提高模型的实际性能。我们的方法实现了卓越的准确性通过最先进的技术来应对挑战面向人脸检测的FDDB和WIDER FACE基准测试AFLW面部对齐基准,同时保持实时性能。

3.论文的主要贡献

  1. 提出了一种新的基于将脸部检测和对齐的一体化级联CNN框架,并且精心设计了一个轻量级的CNN框架,实现实时性能。
  2. 提出了一种有效可以在线生成困难样本挖掘的方法来提高性能。
  3. 在具有挑战性的基准上进行了大量的实验,通过与人脸对齐和检测上的先进方法的比较来显示本文模型优秀的性能提高。

4.算法流程

4.1 网络效果图

这里写图片描述
由图可知整体流程,首先对图片多尺度变换构建图像金字塔,作为网络的输入。接下来就是三层级联卷积网络。

4.2 三层网络概述

4.2.1 P-Net

P-Net(Proposal Network)是一个全连接卷积神经网络,他粗略的获取脸部候选框跟边框回归变量,然后候选框通过边框回归变量(边框回归解释)进行校正。最后用NMS算法合并高度重合的候选框。

4.2.2 R-Net

将所有的候选框作为下层网络R-Net(Refine
Network)的输入,这个网络将会进一步拒绝大量的效果不好的候选框,然后同样的通过边框回归变量进行校正,NMS进行合并。

4.2.3 O-Net

O-Net与R-Net较为相似,但是在这个网络的目标是通过更多的监督来识别面部的区域。特别的是,这个网络将会输出人脸的五个特征点。

4.3 网络的结构

在论文“A convolutional neural network cascade for face detection”中, 多种CNN被设计成可以做面部检测。但是,他的性能可能被以下几个因素限制:

  1. 在卷积层中的一些卷积层缺少多样性,那样会限制模型的识别能力。
  2. 与其他多类别的目标检测跟分类任务相比,人脸检测是一个具有挑战性的二分类任务,所以他的卷积层可能需要更少的卷积核。为此,我们减少卷积核的数量并且将5x5的卷积核变成3x3,因此在减少计算量同时增加深度并且获得更好的性能。

通过这些改善,与在论文“A convolutional neural network cascade for face detection”的网络结构相比,可以在更少的运行时间获得更好的性能。性能对比图如下,
这里写图片描述
网络结构图如下
这里写图片描述
同时激活函数用的是PReLU.

4.4 训练

我们利用三项任务来训练我们的CNN检测器:人脸检测,边框回归,人脸特征点位置。

  1. 人脸检测:学习目标制定为一个二分类问题,对每个样本\(x_{i}\),我们用交叉熵损失函数:

\[L_{i}^{det} = -(y_{i}^{det}log(p_{i}) + (1-y_{i}^{det}) (1-log(p_{i}))) \]

\(p_{i}\)是通过神经网络预测出样本\(x_{i}\)为人脸的概率。\(y_{i}^{det}\)代表ground-truth,$y_{i}^{det} \in $ {0, 1}

  1. 边框回归:对于每个候选窗口,我们预测它与最近的ground truth之间的offset(例如回归框的左上角坐标以及高跟宽)。学习目标制定为回归问题,损失函数是平方损失函数:

\[L_{i}^{box} = ||\hat y^{box}_{i}-y_{i}^{box}||_{2}^{2} \]

\(\hat y_{i}^{box}\)是从网络中得到的回归目标,$ y_{i}^{box}$是ground-truth坐标,它是四维的,包括左上坐标,高度跟宽度。

  1. 人脸特征点坐标:与边框回归类似,损失函数为: $$L_{i}^{landmark} = ||\hat y^{landmark}{i} - y{i}{landmark}||{2}_{2}$$
    同样,\(\hat y_{i}^{landmark}\)是从网络中得到的特征点坐标, \(y_{i}^{landmark}\)是ground-truth的坐标,有五个坐标,分别是两只眼睛,两个嘴角跟一个鼻子。
  2. 多源(Multi-source)训练: 因为在每个CNN中有不同的任务,所以在学习过程中会有不同的训练数据集,在训练某个特指任务时,其他任务损失值应该为零,因此一个综合所有任务的损失函数如下:

\[min{\sum_{i = 1}^{N}\sum_{j \in \{det, box, landmark\} }\alpha_{j}\beta_{i}^{j}L_{i}^{j}} \]

其中N代表训练样本的数量,\(a_{j}\)代表每个任务的重要程度,在P-Net跟R-Net中, \(\alpha_{det} = 1, \alpha_{box} = 0.5, \alpha_{landmark} = 0.5\)然而在O-Net中为了人脸特征点坐标更高的准确率,参数设置为\(\alpha_{det} = 1, \alpha_{box} = 0.5, \alpha_{landmark} = 1\)\(\beta_{i}^{j} \in \{0,1\}\)是样本类型的指示器,在这种情况下,可以很自然的使用随机梯度下降来训练这些CNN。
5. 在线挖掘困难样本:不同于传统方式,需要在原始分类器训练完之后进行困难样本挖掘,实现在线操作。在每一小批量样本中,对其按照前向传播所有样本的损失值进行排序,并且选取前70%作为“hard samples”,从而在反向传播中,我们只计算“hard samples”的梯度。这意味着,训练时我们将忽略那些对增强模型性能作用较小的简单样本。实验证明这种策略相对手动选择困难样本有更好的性能。

5 模型性能分析

5.1 关于在线挖掘困难样本的性能

为了体现性能,论文训练了两个O-Net,他们的初始参数全部一样,一个进行“online hard sample mining”一个不进行,画出他们的学习曲线如下:
这里写图片描述

5.2 将人脸检测与对齐联合的性能

为了测试贡献,同样训练两个相同的O-Net,一个"joint facial landmarks regression",另一个并不进行上述操作,对比其两者的性能,同时对比边框回归的性能。可以发现加入人脸特征点坐标的学习对人脸检测与边框回归都起到了有益的作用,如下图:
这里写图片描述

5.3 人脸检测的效果

与各算法在各数据集上的对比图:
这里写图片描述

这里写图片描述

6 代码阅读[待更新]

7 感悟&&心得

此部分等阅读完代码,彻底理解算法进行补充