论文笔记之:Speed Up Tracking by Ignoring Features

 

Speed Up Tracking by Ignoring Features

CVPR 2014

 

  Abstract:本文提出一种特征选择的算法,来实现用最“精简”的特征以进行目标跟踪。重点是提出一种上界 (Upper Bound)来表示一块区域包含目标物体的概率,并且忽略掉这个 bound比较小的区域。我们的实验表明,忽略掉 90%的特征,仍然取得了不错的结果(未损失精度)。

  

  Ignoring Features in Tracking .

   基于滑动窗口的跟踪器,计算大量的 bounding-box 和 target object 之间的相似性,并且返回最大相应的位置,作为跟踪的结果。有两种属性,可以用于提升该类算法的速度: 

  (1)the score they compute is defined as the sum of a bias b and inner product between the object model W and the features X extracted from bounding box B ; 

  (2)the individual feature values can be upper and lower bounds for popular features including HOG features, LBP and Haar features. 

  本文提出的 feature ignoring tracker (FIT)探索了上述两种属性,目的是发现具有最高响应值的位置,而对于大部分 bbox 来说都不计算其全部得分。

  FIT 扔掉了具有较小机会得到最高score 的 Bbox,after only a small subset of the feature is considered。

  FIT 通过如下的过程,完成该目标:

  (1)Upper bounding the probability that a bounding box can attain the highest score, considering the part of the inner product currently computed ; 

  (2)discarding bounding box for which this probability is below some threshold . 

  

  FIT 对物体表观模型 w 进行排序,具有最高绝对权重 的特征 x 最先被考虑。(排序操作仅仅执行一次,从而不影响 tracker 的跟踪效率);

  接下来,FIT 基于前 d features 计算所有可能 Bbox 的subscore。

  我们选择具有最大 subscore 的 Bbox 作为第一个候选区域,然后计算这个 Bbox 里面的全部得分。

  为了确定是否我们仍然需要考虑任意的其他的 Bbox B 的 更多 feature,我们计算 Bbox B 仍然可能会得到更高得分的概率,相比较刚刚选定的候选 Bbox :

  但是这个概率在没有特征分布 P(x) 的前提下是无法计算的。 但是 给定 Bbox B 划定一个得到比预定的 Bbox 更高得分的概率是可能的:

  where expectation is over the part of the bounding box score that has not yet been computed .

 

   重要的是,公式 2 的上界可以有效的进行计算,因为 w 当中的元素是 sort 之后的,我们该 feature 的 upper and lower bound ,u and l. 特别的,公式 2 可以计算如下:

  注意到,w 当中正样本和负样本的个数可以通过离线的计算得到,并且存储 d 的每一个值,分母当中的每一项都是预先计算好的。所以,公式 2 当中 Bbox B 的上界的时间复杂度为 O (1)。 

  FIT 接下来通过计算 公式 2 的 Upper Boun,然后扔掉所有的 Bbox ,其 upper bound 小于设定的阈值的时候。接着,剩余的 Bbox 的 subscore 通过添加新的 feature 子集进行更新,实际的 score 是基于更新的 subscore 得到最可靠的位置,Bbox 的score小于阈值的,则会被扔掉。重复迭代此过程,直到只剩下一个 Bbox 或者 所有的特征都用于计算 Bbox 的 score。伪代码见下图:

 

  总结

   

  

  

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

时间: 2024-10-12 13:40:19

论文笔记之:Speed Up Tracking by Ignoring Features的相关文章

论文笔记之:Visual Tracking with Fully Convolutional Networks

论文笔记之:Visual Tracking with Fully Convolutional Networks ICCV 2015  CUHK 本文利用 FCN 来做跟踪问题,但开篇就提到并非将其看做是一个 黑匣子,只是用来提取特征,而是在大量的图像和 ImageNet 分类任务上关于 CNN 的 feature 做了大量的深度的研究.这些发现促使他们设计了该跟踪系统,他们发现: 不同的卷积层会从不同的角度来刻画目标.顶层的 layer 编码了更多的关于 语义特征并且可以作为种类检测器,而底层的

论文笔记之:Action-Decision Networks for Visual Tracking with Deep Reinforcement Learning

论文笔记之:Action-Decision Networks for Visual Tracking with Deep Reinforcement Learning  2017-06-06  21:43:53    这篇文章的 Motivation 来自于 MDNet:    本文所提出的 framework 为:                             

论文笔记: Dual Deep Network for Visual Tracking

论文笔记: Dual Deep Network for Visual Tracking  2017-10-17 21:57:08  先来看文章的流程吧 ... 可以看到,作者所总结的三个点在于: 1. 文章将 边界和形状信息结合到深度网络中.底层 feature 和 高层 feature 结合起来,得到 coarse prior map,然后用 ICA-R model 得到更加显著的物体轮廓,以得到更好的似然性模型:  2. Dual network 分别处理两路不同的网络,使得前景和背景更加具

Video Frame Synthesis using Deep Voxel Flow 论文笔记

  Video Frame Synthesis using Deep Voxel Flow 论文笔记 arXiv    摘要:本文解决了模拟新的视频帧的问题,要么是现有视频帧之间的插值,要么是紧跟着他们的探索.这个问题是非常具有挑战性的,因为,视频的外观和运动是非常复杂的.传统 optical-flow-based solutions 当 flow estimation 失败的时候,就变得非常困难:而最新的基于神经网络的方法直接预测像素值,经常产生模糊的结果. 于是,在此motivation的基

Perceptual Losses for Real-Time Style Transfer and Super-Resolution and Super-Resolution 论文笔记

  Perceptual Losses for Real-Time Style Transfer and Super-Resolution and Super-Resolution 论文笔记 ECCV 2016    摘要: 许多经典问题可以看做是 图像转换问题(image transformation tasks).本文所提出的方法来解决的图像转换问题,是以监督训练的方式,训练一个前向传播的网络,利用的就是图像像素级之间的误差.这种方法在测试的时候非常有效,因为仅仅需要一次前向传播即可.但是,

Face Aging with Conditional Generative Adversarial Network 论文笔记

Face Aging with Conditional Generative Adversarial Network 论文笔记 2017.02.28    Motivation: 本文是要根据最新的条件产生式对抗玩网络(CGANs)来完成,人类老年照片的估计. 主要是做了一下两个事情: 1. 根据年龄阶段,进行照片的老年估计,用 acGAN 网络来完成: 2. 提出一种 隐层变量优化算法(latent vector optimization approach),允许 acGAN 可以重构输入人脸

论文笔记:Parallel Tracking and Verifying: A Framework for Real-Time and High Accuracy Visual Tracking

Parallel Tracking and Verifying: A Framework for Real-Time and High Accuracy Visual Tracking    本文目标在于 tracking performance 和 efficiency 之间达到一种平衡.将 tracking 过程分解为两个并行但是相互协作的部分: 一个用于快速的跟踪(fast tracking): 另一个用于准确的验证(accurate verification).  本文的 Motivat

论文笔记之:Fully-Convolutional Siamese Networks for Object Tracking

gansh   Fully-Convolutional Siamese Network for Object Tracking   摘要:任意目标的跟踪问题通常是根据一个物体的外观来构建表观模型.虽然也取得了不错的效果,但是他们这些 online-only approach 限制了模型可以学到的模型的丰富性.最近,已经有几个尝试开始探索深度卷积网络的强大的表达能力(express power).但是,当跟踪目标提前未知时,需要在线的执行 SGD 来适应网络的权重,严重的影响了系统的速度.本文中,

论文笔记之:Learning Multi-Domain Convolutional Neural Networks for Visual Tracking

  Learning Multi-Domain Convolutional Neural Networks for Visual Tracking CVPR 2016   本文提出了一种新的CNN 框架来处理跟踪问题.众所周知,CNN在很多视觉领域都是如鱼得水,唯独目标跟踪显得有点"慢热",这主要是因为CNN的训练需要海量数据,纵然是在ImageNet 数据集上微调后的model 仍然不足以很好的表达要跟踪地物体,因为Tracking问题的特殊性,至于怎么特殊的,且听细细道来. 目标跟