CVPR2018 关于视频目标跟踪(Object Tracking)的论文简要分析与总结

时间:2022-01-27 12:27:39

本文转自:https://blog.csdn.net/weixin_40645129/article/details/81173088

CVPR2018已公布关于视频目标跟踪的论文简要分析与总结

一,A Twofold Siamese Network for Real-Time Object Tracking

论文名称

A Twofold Siamese Network for Real-Time Object Tracking

简介

此算法在SiamFC的基础上增加了语义分支,进一步提升SiamFC的判别力,从而提升了跟踪效果,即使损失了一些速度,但是仍然达到了实时的跟踪速度。总的来说,本文思路简单明了,逻辑清晰,道理透彻,是一个不错的单目标跟踪工作,唯一欠缺的是其仍然沿用SiamFC在跟踪过程中所有帧都和第一帧对比,是该类方法的主要缺陷。

创新点

1:将图像分类任务中的语义特征与相似度匹配任务中的外观特征互补结合,非常适合目标跟踪任务,因此此算法可以简单概括为:SA-Siam=语义分支+外观分支;

2:对于新引入的语义分支,此算法进一步提出了通道注意力机制。在使用网络提取目标物体的特征时,不同的目标激活不同的特征通道,作者对被激活的通道赋予高的权值,此算法通过目标物体在网络特定层中的响应计算这些不同层的权值。

3:Motivation:目标跟踪的特点是,作者从众多背景中区分出变化的目标物体,其中难点为:背景和变化。此算法的思想是用一个语义分支过滤掉背景,同时用一个外观特征分支来泛化目标的变化,如果一个物体被语义分支判定为不是背景,并且被外观特征分支判断为该物体由目标物体变化而来,那就认为这个物体即需要被跟踪的物体;
4:此算法的目的是提升SiamFC在目标跟踪任务中的判别力。作者提出了SA-Siam,这是一个双重Siamese网络,由语义分支和外观分支组成。每一个分支都使用Siamese网络结构计算候选图片和目标图片的相似度。为了保持两个分支的独立性,两个Siamese网络在训练过程中没有任何关系,仅仅在测试过程中才会结合。

主要框架

基于SiamFC修改,Siamese 网络

效果

速度:50fps,

语义分支权重:外观分支权重 = 7:3

OTB实验:OTB-2013(0.896,0.677),OTB-2015(0.865,0.657)

代码

没公布

二,Context-aware Deep Feature Compression for High-speed Visual Tracking

论文名称

Context-aware Deep Feature Compression for High-speed Visual Tracking

简介

作者提出了一种在实时跟踪领域高速且state-of-the-art表现的基于context-aware correlation filter的跟踪框架。这个方法的高速性依赖于会根据内容选择对应的专家自编码器来对图片进行压缩;context在此算法中表示根据要跟踪目标的外观大致分的类。在预训练阶段,每个类训练一个自编码器。在跟踪阶段,根据给定目标选择最佳的自编码器——专家自编码器,并且在下面阶段中仅使用这个网络。为了在压缩后的特征图上达到好的跟踪效果,作者分别在与训练阶段和微调专家自编码器阶段提出了一种去噪过程和新的正交损失函数。

创新点

对于视频这种高维度数据,作者训练了多个自编码器AE来进行数据压缩,至于怎么选择具体的网络,
作者又训练了一个基于目标选择具体AE的网络,再根据压缩后的特征图,进行协相关过滤操作追踪目标。

本文创新的地方在于:
1. 两种加噪声的操作,既增加了鲁棒性,又相当于数据增强。
2. 为了自编码器的平稳训练和防过拟合提出了multi-stage distance loss。
3. 最后移除相应低的通道和自编码器针对通道而不针对图像大小。

主要框架

correlation filter+ VGG-Net

效果

速度:超过100fps。

精度:

代码

没公布

三,Learning Spatial-Temporal Regularized Correlation Filters for Visual Tracking

论文名称

Learning Spatial-Temporal Regularized Correlation Filters for Visual Tracking(STRCF)

简介

此算法研究了在不损失效率的情况下,利用空间正则化和大型训练集形式的优点的方法。一方面,SRDCF 的高复杂度主要来源于对多幅图像的训练形式。通过去除约束条件,单图像样本上的 SRDCF 可以通过 ADMM 有效地解决。由于 SRDCF 的凸性,ADMM 也能保证收敛到全局最优。另一方面,在 SRDCF 算法中,将空间正则化集成到多幅图像的训练形式中,实现了 DCF 学习与模型更新的耦合,提高了追踪准确率。在在线被动攻击 ( PA ) 学习 [ 6] 的启发下,作者将时间正则化方法引入到单图像 SRDCF 中,得到了时空正则化相关滤波器 ( STRCF )。STRCF 是多训练图像上 SRDCF 形式的合理近似,也可用于同时进行 DCF 学习和模型更新。此外,ADMM 算法也可以直接用于求解 STRCF。因此,本文提出的 STRCF 将空间正则化和时间正则化结合到 DCF 中,可以用来加速 SRDCF。此外,作为在线 PA 算法的扩展,STRCF 还可以在外观大幅变化的情况下实现比 SRDCF 更鲁棒的外观建模。与 SRDCF 相比,引入时间正则化后的 STRCF 对遮挡具有更强的鲁棒性,同时能够很好地适应较大的外观变化。

创新点

通过将空间和时间正则化纳入 DCF 框架,提出了 STRCF 模型。基于在线 PA 的 STRCF 不仅可以合理地逼近多幅训练图像上的 SRDCF 形式,而且在较大的外观变化情况下比 SRDCF 具有更强的鲁棒性。
为高效求解 STRCF,开发了一种 ADMM 算法,其中每个子问题都有封闭形式的解。并且本文提出的算法可以在非常少的迭代中经验地收敛。
本文提出的 STRCF 具有人工设计的特征,可以实时运行,相比 SRDCF 在准确率上有了显著的提升。
主要框架

相关滤波,HOG,CN特征

效果

SRDCF 的变体和使用 HOG 特征的 STRCF 在 OTB-2015 和 Temple-Color 数据集上关于 OP(%)和速度(FPS)的比较。

代码

没公布

四,End-to-end Flow Correlation Tracking with Spatial-temporal Attention

论文名称

End-to-end Flow Correlation Tracking with Spatial-temporal Attention

简介

首先是motivation,作者注意到几乎所有的跟踪器都只用到了RGB信息,很少有用到视频帧和帧之间丰富的运动信息;这就导致了跟踪器在目标遇到运动模糊或者部分遮挡的时候,性能只能依靠离线训练的特征的质量,鲁棒性很难保证。于是作者就想利用视频中的运动信息(Flow)来补偿这些情况下RGB信息的不足,来提升跟踪器的性能. 具体来说,作者首先利用历史帧和当前帧得到Flow,利用Flow信息把历史帧warp到当前帧,然后将warp过来的帧和本来的当前帧进行融合,这样就得到了当前帧不同view的特征表示,然后在Siamese和DCF框架下进行跟踪.

创新点

1. 第一篇把Flow提取和tracking任务统一在一个网络里面的工作。

2.采用Siamese结构,分为historical branch和current branch. 在historical branch里面,进行Flow的提取和warp,

3.在融合阶段,我们设计了一种spatial-temporal attention的机制.

4.在current branch,只提取特征. Siamese结构两支出来的特征送进DCF layer, 得到response map.

总结来说,就是把Flow提取,warp操作,特征提取和融合,CF tracking都做成了网络的layer,端到端地训练它们。

主要框架

Siamese结构和DCF框架

效果

VOT2015结果

代码

没公布

五, Visual Tracking via Adversarial Learning

论文名称

Visual Tracking via Adversarial Learning(VITAL)

简介

此算法在VGG-M模型基础上进行改进,在最后一个卷积层和第一个全连接层之间增加了一个产生式网络,从而达到在特征空间增强正样本的目的。具体的,产生式网络输入为目标特征,输出为一个mask矩阵,该mask矩阵作用于目标特征后表示目标的一种外观变化。通过对抗学习,该产生式网络可以产生能保留目标特征中最鲁棒部分的mask矩阵。最终,训练得到的产生式网络生成的mask矩阵可以对判别力强的特征进行削弱,防止判别器过拟合于某个样本。
此算法提出了一个高阶敏感损失来减小简单负样本对于分类器训练的影响,这个道理很简单,那些明明很容易被分类正确的负样本其实在训练过程中也会产生损失,然而不希望网络关注这些损失,因为关注他们反而会使得网络性能变差,实验证明,此算法提出的新的损失函数不但可以提升精度,同时可以加速训练的收敛。
创新点

此算法主要分析了现有的检测式跟踪的框架在模型在线学习过程中的两个弊病,即:
1.每一帧中正样本高度重叠,他们无法捕获物体丰富的变化表征;

2.正负样本之间存在严重的不均衡分布的问题;
针对上述问题,本文提出 VITAL 这个算法来解决,主要思路如下:
1.为了丰富正样本,作者采用生成式网络来随机生成mask,且这些mask作用在输入特征上来捕获目标物体的一系列变化。在对抗学习的作用下,作者的网络能够识别出在整个时序中哪一种mask保留了目标物体的鲁邦性特征;
2.在解决正负样本不均衡的问题中,本文提出了一个高阶敏感损失来减小简单负样本对于分类器训练的影响。

主要框架

在VGG-M模型基础上进行改进

效果

速度:1.5fps,(在Tesla K40c GPU下的速度)

代码

没公布

六,Unveiling the Power of Deep Tracking

论文名称

Unveiling the Power of Deep Tracking(ECO+)

简介

论文是对ECO的改进,deep tracker无法受益于更好更深CNN的深度特征,针对这一反常现象,实验和分析表明这主要是由于浅层特征和深度特征的特性差异,两种特征分而治之,深度特征部分加入了数据增强增加训练样本数量,用不同label function,浅层特征正样本更少,深度特征正样本更多。两部分响应图自适应融合,提出了可以同时反映准确性和鲁棒性的检测质量估计方法,基于这个质量评估,最优化方法自适应融合两部分的响应图,得到最优的目标定位结果。实验结果在各个测试集上都是目前最好。

创新点

ECO+对ECO的核心改进是:

两种特征区别对待,分而治之,深度特征负责鲁棒性,浅层特征负责准确性,两种检测响应图在最后阶段自适应融合,目标定位最优化,兼具两者的优势。

主要框架

对ECO的改进,相关滤波+深度特征

效果

精度:

代码

没公布

七,Learning Spatial-Aware Regressions for Visual Tracking

论文名称

Learning Spatial-Aware Regressions for Visual Tracking

简介

利用核岭回归分析(KRR)和卷积神经网络(CNN)互补的跟踪。前者侧重于整体的目标,后者关注当地的小区域。他们提出的追踪器以一种新的方式结合了CNN和相关滤波,通过设计算法让CNN专注于特定区域的回归,相关滤波专注于全局的回归,在最后对回归的结果进行组合,以互补的方式得到物体的精确定位。文章旨在将CNN和KRR结合起来,其中CNN用于用于关注目标的局部信息,KRR用于关注目标的整体信息;

创新点

重新定义KRR中核的计算以及KRR的求解方法
1,用将目标分割成部件的思想定义了新的求核相关值的方法,并将该方法融入到CNN中作为一个组件进行高效求解;
2,在CNN用于跟踪的任务中提出了空间正则化方法(类似SRDCF思想),主要做法是通过学习强制让CNN的各个通道分别关注于目标特定的子区域;

3,提出了适用于跟踪的新的Pooling方法:distance transform pooling用于判断CNN输出层的有效性;

4,将1和2中的结果进行融合,共同确定目标位置;

主要框架

深度学习框架

效果

VOT2017 比赛性能第一;
速度:1fps,没有实时;
OTB-100性能:精度——0.923,覆盖率——0.672;

代码

http://data.votchallenge.net/vot2017/trackers/24_LSART.zip

八,Learning Attentions: Residual Attentional Siamese Network for High Performance Online Visual Tracking

论文名称

Learning Attentions: Residual Attentional Siamese Network for High Performance Online Visual Tracking

简介

RASNet使用三个attention机制对SiamFC特征的空间和channel进行加权,分解特征提取和判别性分析的耦合,用来提升判别能力。

创新点

1.作者做的工作的本质就是让网络去预测对偶变量。

2.为了增加网络的判别能力,一个通用的attention似乎并不够。CF根据每个模板图像进行学习,得到很好的判别器。作者也模仿这个机制,根据第一帧图像的feature,使用网络学习一个动态的attention。

3.能让网络学习的就学习,尽量避免在线学习。

4.提出残差结构,希望残差学习的部分的均值近似为0。

主要框架

深度学习框架

效果

精度:

代码

没公布
---------------------
作者:weixin_40645129
来源:CSDN
原文:https://blog.csdn.net/weixin_40645129/article/details/81173088
版权声明:本文为博主原创文章,转载请附上博文链接!