基于单目小运动视频的快速深度估计算法

每天一分钟,带你读遍机器人顶级会议文章
标题:Monocular Depth from Small Motion Video Accelerated
作者:Christopher Ham, Ming-Fang Chang, Simon Lucey, Surya Singh
来源:3dv 2017 ( International Conference on 3D Vision)
编译:博主
欢迎个人转发朋友圈;其他机构或自媒体如需转载,后台留言申请授权


摘要

为快速从短基线视频序列中重建密集深度,本文提出一种新的重建流程,共分为四个步骤。目前,大多数智能手机都具有高帧率(HFR)视频拍摄功能,能够获取到帧间运动和运动模糊更小的视频,但是其缺点在于为补偿高速快门而调高的感光度增加了影像噪声。本文的工作主要是针对此类视频数据。虽然此类视频的短基线意味着深度估计具有更大的不确定性,但是这也意味着点跟踪更加容易,亮度不变的假设更加可靠。在本文提出的方法中,作者使用了具有亚像素精度的直接光度光束平差法,能够使用更少的跟踪点来估计精确的外参数,作者发现在这种方法中考虑像素在整个视频中的强度能够使其对影像噪声更鲁棒。并且,本文使用一种基于PatchMatch的算法进行密集深度图快速计算,而不是使用短基线视频处理中常用的穷举平面扫描法。为解决立体匹配错误,本文中使用了一种鲁棒的平均值计算来解决此问题。
在论文中,作者将自己的算法与目前最新的短基线算法(Ha)进行了全面、定量的比较,包括速度、质量、基线长度和视频大小,使用的数据是人工合成真实感照片。作者的实验结果表明提出的算法能够处理更大范围的基线和数据量更大的视频。作者也使用了Ha中的数据进行了定量实验,发现文中算法在密集深度图质量近似或更好的情况下,速度至少有10倍以上的提升。
下图中橙色表示是作者的算法的运行时间,灰色表示Ha的算法的运行时间。
这里写图片描述
下图是作者算法和Ha算法的运行结果对比图。
这里写图片描述

这里写图片描述

猜你喜欢

转载自blog.csdn.net/u012348774/article/details/80642613
今日推荐