论文部分内容阅读
针对场景的光照变化和遮挡、混响等因素对目标定位准确性和鲁棒性的影响,提出了一种基于Kinect音视频融合的目标定位方法.在获取场景的颜色、深度和声源定位信息后,首先利用获取的深度信息剔除背景信息,然后分别对颜色、深度和声源定位的模型计算似然函数,最后融合上述3种似然函数,并在粒子滤波框架下实现目标定位.实验结果表明,音视频信息融合的目标定位平均准确率达到90.7%,相比于同一场景下独立使用视频和音频定位的准确率分别提高了9.1%和16.9%.