论文笔记之:Optical Flow Estimation using a Spatial Pyramid Network

  Optical Flow Estimation using a Spatial Pyramid Network  

spynet 

 

  本文将经典的 spatial-pyramid formulation 和 deep learning 的方法相结合,以一种 coarse to fine approach,进行光流的计算。This estiamates large motions in a coarse to fine approach by warping one image of a pair at each pyramid level by the current flow estimate and compute an update to the flow. 

  我们利用 CNN 来进行每一层 flow 的更新,而不是传统方法中目标函数的最小化。与 FlowNet 相比,本文的方法不需要处理 large motions;这些已经在 pyramid 中处理了。该方法的主要优势有:

  1. our Spatial Pyramid Network is much simpler and 96% smaller than FlowNet in terms of model parameters. 

  2. since the flow at each pyramid level is small (< 1 pixel), a convolutional approach applied to pairs of warped images is appropriate.  

  3. unlike FlowNet, the learned convolution filters appear similar to classical spatio-temporal filters, giving insight into the method and how to improve it.   

 

  现有方法存在的 主要问题

  将两张图直接 stack大一起,放到 CNN 当中。当两帧图像之间的 motion 大于 one or a few pixels, spatial-temporal convolutional filters 将不会收到有效的相应。也就是说,if a convolutional window in one image does not overlap with related image pixels at the next time instant, no meaningful temporal filter can be learned. 

  这里需要解决两个关键性的问题:1. 长期依赖的问题;  2. detailed, sub-pixel, optical flow and precise motion boundaries。FlowNet 是尝试在一个网络中解决这两个问题,而该方法则是用 CNN 来解决第二个问题,用现有的方法来解决第一个问题。

  

  Approach:

  本文用 spatial pyramid 的方式,from coarse to fine 的方法来解决 large motion的问题。 

  

  其流程图如下所示:

  

  

  

  在训练上一层网络 G 的时候,需要下面几层的初始 flow 结果。而本文得到训练所需的 gt,是根据 gt flow 和 下一层光流图上采样后的结果 之间的差值的得到的。根据这个,来训练当前的网络参数。

  


 

 

时间: 2024-11-05 17:35:46

论文笔记之:Optical Flow Estimation using a Spatial Pyramid Network的相关文章

Video Frame Synthesis using Deep Voxel Flow 论文笔记

  Video Frame Synthesis using Deep Voxel Flow 论文笔记 arXiv    摘要:本文解决了模拟新的视频帧的问题,要么是现有视频帧之间的插值,要么是紧跟着他们的探索.这个问题是非常具有挑战性的,因为,视频的外观和运动是非常复杂的.传统 optical-flow-based solutions 当 flow estimation 失败的时候,就变得非常困难:而最新的基于神经网络的方法直接预测像素值,经常产生模糊的结果. 于是,在此motivation的基

论文笔记之:Action-Decision Networks for Visual Tracking with Deep Reinforcement Learning

论文笔记之:Action-Decision Networks for Visual Tracking with Deep Reinforcement Learning  2017-06-06  21:43:53    这篇文章的 Motivation 来自于 MDNet:    本文所提出的 framework 为:                             

论文笔记: Dual Deep Network for Visual Tracking

论文笔记: Dual Deep Network for Visual Tracking  2017-10-17 21:57:08  先来看文章的流程吧 ... 可以看到,作者所总结的三个点在于: 1. 文章将 边界和形状信息结合到深度网络中.底层 feature 和 高层 feature 结合起来,得到 coarse prior map,然后用 ICA-R model 得到更加显著的物体轮廓,以得到更好的似然性模型:  2. Dual network 分别处理两路不同的网络,使得前景和背景更加具

Perceptual Losses for Real-Time Style Transfer and Super-Resolution and Super-Resolution 论文笔记

  Perceptual Losses for Real-Time Style Transfer and Super-Resolution and Super-Resolution 论文笔记 ECCV 2016    摘要: 许多经典问题可以看做是 图像转换问题(image transformation tasks).本文所提出的方法来解决的图像转换问题,是以监督训练的方式,训练一个前向传播的网络,利用的就是图像像素级之间的误差.这种方法在测试的时候非常有效,因为仅仅需要一次前向传播即可.但是,

论文笔记之:Visual Tracking with Fully Convolutional Networks

论文笔记之:Visual Tracking with Fully Convolutional Networks ICCV 2015  CUHK 本文利用 FCN 来做跟踪问题,但开篇就提到并非将其看做是一个 黑匣子,只是用来提取特征,而是在大量的图像和 ImageNet 分类任务上关于 CNN 的 feature 做了大量的深度的研究.这些发现促使他们设计了该跟踪系统,他们发现: 不同的卷积层会从不同的角度来刻画目标.顶层的 layer 编码了更多的关于 语义特征并且可以作为种类检测器,而底层的

Face Aging with Conditional Generative Adversarial Network 论文笔记

Face Aging with Conditional Generative Adversarial Network 论文笔记 2017.02.28    Motivation: 本文是要根据最新的条件产生式对抗玩网络(CGANs)来完成,人类老年照片的估计. 主要是做了一下两个事情: 1. 根据年龄阶段,进行照片的老年估计,用 acGAN 网络来完成: 2. 提出一种 隐层变量优化算法(latent vector optimization approach),允许 acGAN 可以重构输入人脸

Optical Flow related Tutorials

Optical Flow related Tutorials   2017-04-01 10:50:55    Reference:  1. http://blog.csdn.net/carson2005/article/details/7581642  2.   

论文笔记之:Heterogeneous Face Attribute Estimation: A Deep Multi-Task Learning Approach

  Heterogeneous Face Attribute Estimation: A Deep Multi-Task Learning Approach  2017.11.28    Introduction: 人脸属性的识别在社会交互,提供了非常广泛的信息,包括:the person's identity, demographic (age, gender, and race), hair style, clothing, etc. 基于人脸属性识别的场景也越来越多,如:(i)video

论文笔记之:Generative Adversarial Nets

  Generative Adversarial Nets NIPS 2014    摘要:本文通过对抗过程,提出了一种新的框架来预测产生式模型,我们同时训练两个模型:一个产生式模型 G,该模型可以抓住数据分布:还有一个判别式模型 D 可以预测来自训练样本 而不是 G 的样本的概率.训练 G 的目的是让 D 尽可能的犯错误,让其无法判断一个图像是产生的,还是来自训练样本.这个框架对应了一个 minimax two-player game. 也就是,一方得势,必然对应另一方失势,不存在两方共赢的局