论文笔记之:Spatially Supervised Recurrent Convolutional Neural Networks for Visual Object Tracking

时间:2022-01-26 15:40:04

Spatially Supervised Recurrent Convolutional Neural Networks for Visual Object Tracking 

arXiv Paper

  Project Page:http://guanghan.info/projects/ROLO/

  GitHub:https://github.com/wangxiao5791509/ROLO  

  摘要:本文提出了一种新的方法进行空间监督 RCNN 来进行目标跟踪。我们通过深度神经网络来学习到  locations 的历史信息 和 具有判别性的视觉特征。收到最近的 bbox 回归技术的启发,本文研究了 LSTM 在时间领域的回归能力,可以连接高层视觉特征。跟现有的跟踪算法训练二分类器不同,我们在卷积层 和 recurrent unit 两个方面利用回归直接得到跟踪位置的预测。

  由于受到各种跟踪问题的挑战,许多 tracker 都是采用产生式或者判别式的方法来区分前景或者背景,也就是将跟踪看做是一个二分类问题。一个主要的缺点在于:严重依赖于手工设计的feature,无法结合物体的语义信息(semantic information),对于突然的形变并不具有鲁棒性。所以,随着深度学习的火爆,越来愈多的 tracker 开始采用深度feature。但是,在时序上的探索,几乎还没有。

  本文的关键动机是:tracking failures can often be effectively recovered by learning from historical visual semantic and tracking proposals.

  算法流程

论文笔记之:Spatially Supervised Recurrent Convolutional Neural Networks for Visual Object Tracking

  如上图所示:算法的输入是 video frame,第一个框架是 YOLO,然后是 LSTM 单元,最终输出的是 target 的 location。

  然后文章介绍了 LSTM 和 YOLO 的相关背景知识,此处略去,详情请参考相关文章。

  

  本文提出的 tracker 的示意图,如下所示:

  论文笔记之:Spatially Supervised Recurrent Convolutional Neural Networks for Visual Object Tracking

  网络的训练分为三个阶段

  1.  the pre-trained phrase of convolutional layers for feature learning;      卷积层的预训练,以提取 feature

  2.  the traditional YOLO training phase for object proposal          训练 YOLO 以产生 proposal

  3.  the LSTM training phase for object tracking.              训练 LSTM 进行跟踪


实验效果展示:

论文笔记之:Spatially Supervised Recurrent Convolutional Neural Networks for Visual Object Tracking

论文笔记之:Spatially Supervised Recurrent Convolutional Neural Networks for Visual Object Tracking