采用逐层迭代方法的基础矩阵估计

时间:2022-08-08 10:47:46

采用逐层迭代方法的基础矩阵估计

摘要:

为解决未知环境下运动序列中的基础矩阵估计问题,提出了一种逐层迭代优化的方法。该方法基于最优鲁棒估计方法,加入运动连续性以及多尺度对应的约束条件以减少虚假对应;然后,逐层将高层模型的数据内点添加到下层数据集,以更新数据集并同时估计单应性模型;最终,在底层全局优化并修正模型。实验表明,该方法的几何变换误差的均值不大于2.891821pixel,误差波动范围的方差不大于0.295172pixel,相对于传统方法,当运动序列中场景表面的深度层次较多,深度变化连续时,误差均值及波动方差均有一定程度的降低。

关键词:基础矩阵;运动序列;逐层迭代;数据内点

中图分类号:TP394.1;TH691.9

文献标志码:A

0引言

透视投影使得真实世界中3D场景信息退化为2D图像信息,因此从2D图像中恢复3D场景成为视觉计算的重要任务;其中,场景目标和观察者之间的相对姿态估计是一个必要环节,其关键估计摄像机基础矩阵,从应用背景上可分为合作目标估计[1]与非合作目标估计[2]。非合作目标的几何特性未知,难以准确并稳定估计基础矩阵;对此,研究者们提出基于概率优化的鲁棒估计方法[3],该方法是其他最优化基础矩阵估计方法的基础[4]。

实际应用中,输入为未知场景运动序列时,连续运动导致视点不断变换,数据中将产生大量外点且噪声源的统计特性也难以预测,直接导致基本鲁棒估计结果出现严重畸变,造成图像严重扭曲。常采用最优化方法对基本鲁棒估计的结果进行全局优化,以克服由少数外点引发的误估。然而,直接采用全局优化容易导致模型的局部过拟合[5],以致畸变加剧,采用合理的约束方法全局最优化基础矩阵成为改进的重点。

对此,可加入窄基线多尺度约束以及运动连续性约束,使用多尺度逐层迭代的方法,以高尺度层的整体视点变换约束低尺度层的局部细节,防止下局部过拟合,减小重投影误差。

3实验及其结果分析

3.1实验设计

实验中测试数据为Technical University of Denmark(DTU) Robot data set, 该数据库由运动序列图像构成。本文选取数据库中序列1,4,31,32,50共计5个大型目标,此类场景具有视角变化明显、纹理及空间结构复杂且深度层次丰富、更符合实际应用场景的特点;而其余场景中多为小型目标,其纹理单一或结构简单,因此各方法的基础矩阵估计结果相近。每个测试序列均由连续的30帧组成,各场景表面的深度层次及深度变化幅度均不同。

实验对比的算法为基本鲁棒估计(基于RANSAC)、最优化鲁棒估计(基于RANSAC+LM)和逐层迭代估计。评价标准采用单应性几何变换的重投影误差[6]。实验中,各算法均在各场景序列的连续30帧中的相邻两帧上连续估计基础矩阵,并对每种算法在各序列上均给出29次单应性变换误差评价,算法的准确性以及稳定性均可直观地通过误差折线评价。

3.2实验结果分析

4结语

当输入为未知场景的运动序列时,逐层迭代估计方法可通过高层点集估计整体视点变化,将高层模型的内点带入下层进行逐层优化估计。实验表明,与主流的方法相比,当上层数据外点被有效剔除时,可有效防止下层模型的局部过拟合;当场景深度层次性较多且表面连续性较好时,逐层迭代与常见的最优化估计的平均单应性几何变换误差比值为58.93%到75.27%,误差的波动范围比值为27.41%到98.91%,提高了准确性和稳定性。

参考文献:

[1]彭凯. 基于光靶标的双相机三坐标测量系统关键技术的研究[D]. 天津:天津大学,2007.

[2]SNAVELY N, STEVEN M, SZELISKI S. Modeling the world from Internet photo collections[J]. International Journal of Computer Vision, 2008, 80(2):189-210.

[3]FAUGERAS O, LUONG Q T, MAYBANK S. Camera selfcalibration: theory and experiments[C]// ECCV 1992:Proceedings of the Second European Conference on Computer Vision, LNCS 588. Berlin: Springer, 1992: 321-334.

[4]HARTELY R, ZISSERMAN A. Multiple view geometry in computer vision, second edition[M]. 2nd ed. Cambridge: University of Cambridge Press, 2004: 87-150.

[5]NI K, STEEDLY D, DELLAERT F. Outofcore bundle adjustment for largescale 3D reconstruction[C]// ICCV 2007: Proceedings of the 11th IEEE International Conference on Computer Vision. Piscataway, NJ: IEEE Press, 2007: 1-8.

[6]CHOI S, KIM T, YU W. Performance evaluation of ransac family[J]. Journal of Computer Vision, 1997, 24(3): 271-300.

[7]AGARWAL S, SNAVELY N, SIMON I, et al. Building rome in a day[C]// Proceedings of the 12th IEEE International Conference on Computer Vision. Piscataway, NJ: IEEE Press, 2009: 72-79.

[8]TOMASI C, KANADE T. Detection and tracking of point features[EB/OL].[20121010].http://citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1.45.5770.

[9]FAN J. A modified LevenbergMarquardt algorithm for singular system of nonlinear equations[J]. Journal of Computational Mathmatics, 2003, 21(5): 625-636.

[10]LOURAKIS M, ARGYROS A. SBA: a software package for generic sparse bundle adjustment[J]. ACM Transactions on Mathematical Software, 2009, 36(1):1-30.

[11]AANAS H, DAHL A L, PEDERSEN K S. Interesting interest points[J]. International Journal of Computer Vision, 2012, 97(1): 18-35.

上一篇:基于Fisher类内散度的支持向量机分类面修正方... 下一篇:基于可变网格划分的密度偏差抽样算法