论文部分内容阅读
本文旨在移动设备(如智能手机和无人机)上实现快速、稳定、准确的姿态跟踪。用来为移动增强现实和无人机自主跟随等潜在的移动视觉应用服务。现有的姿态跟踪方法,大都依赖于视觉跟踪或者惯性传感器跟踪,而这些方法要么是很难在移动设备上实时的运行,要么是在相机快速移动、长时间曝光或者在遮挡、视角变化大和复杂背景等环境下无法保证足够的稳定性。考虑到现有的移动设备大都同时配有相机和惯性传感器,本文充分发掘了视觉跟踪与惯性传感器信息跟踪的潜力,先后提出了两个同时利用了视觉和惯性传感器信息的姿态跟踪系统。这两个系统一个是改进的基于模型的追踪系统,其通过追踪目标位置进而得到相机相对于追踪目标的姿态;另一个是改进的视觉里程计系统,在完全陌生的环境下,通过同时定位与建图进而得到相机运动引起的姿态变化。这两个系统都能够在移动平台上快速稳定的运行。具体到方法上,本文主要做了以下工作:(1)提出了一个基于先验模型的视觉惯性混合追踪的系统,利用帧间跟踪方法进行快速平滑的姿态跟踪,同时利用基于模型的跟踪方法对帧间方法的结果进行更新,用以消除帧间跟踪的累积误差。同时,该系统还利用惯性传感器信息对帧间跟踪进行自适应分辨率调整,进一步提升了视觉跟踪方法的速度。惯性传感器跟踪的结果还被用于加速基于模型的跟踪方法。最后系统还利用动态卡尔曼滤波将惯性传感跟踪的结果与视觉跟踪的结果进行融合。实验结果证明,我们的跟踪系统对比最新的特征跟踪方法、直接跟踪方法和Vuforia SDK都有着优越的性能提升,能够在智能手机上以超过40帧的频率运行。(2)提出了一个能够在移动设备上实时运行的无先验跟踪系统,该系统同样利用惯性传感器信息对图像进行动态分辨率调整,提升了跟踪的速度。此外还提出了一种改进的PLK算法,通过添加空间和深度约束,使之更加适用于半稠密跟踪。最后还改进了系统中的重定位模块,利用一种直接基于像素值的极简单二进制特征,实现了准确快速的重定位。评估结果证明我们改进的利用了惯性传感器数据的系统相比最新的LSD-SLAM和ORB-SLAM,有着更快的速度和更优的性能。本文以移动平台上的姿态追踪为目标,为了在适应移动追踪场景下的各种挑战,提出了一些新的视觉跟踪方法和视觉惯性传感器融合方法。实验结果表明,我们的方法能够在移动设备上实现快速和稳定的姿态追踪。