论文部分内容阅读
随着3D显示和交互多媒体系统的迅速发展,自由视点视频(Free ViewpointVideo, FVV)将成为下一代视频应用的主要方向,日益引人关注。与传统2D视频相比,FVV与人的视觉更加匹配,使人们在观看时能获得丰富的立体感和沉浸感,并且支持用户在一定范围内选择任意的视点图像。为了能提供各种FVV应用所期望的业务,除了传输多个2D纹理视频外还需要传输附加的深度图像来生成虚拟新视点。与传统的视频图像相比,深度图像有其自身的特性,即深度和纹理视频之间的差异性使得直接采用传统视频编码方式对深度进行编码压缩不尽合理,会在绘制新视点中引入失真。因此,自由视点视频深度编码已经成为国际上信号处理领域的研究热点。本文对深度编码的关键技术进行了深入研究,主要学术贡献及创新点包括以下几个方面:针对自由视点三维电视系统中深度估计不准确、给后续多视点深度编码和虚拟视点绘制带来困难的问题,提出一种面向编码和绘制的多视点图像深度估计算法。首先对初始深度进行一致性检查,并采用自适应匹配误差策略删除不可靠的匹配以减小初始深度的误匹配。然后根据融合准则将多幅参考深度图合成为一幅深度图以提高深度图的精度。最后,采用多边滤波器在保护深度图细节的同时对影响虚拟视点绘制的对象边界以及低纹理区深度不连续处错误进行矫正优化。实验结果表明,该算法能明显提高深度图的编码效率和减少视点合成的赝像。为降低自由视点电视系统中由于深度估计不准确和深度数据压缩带来的量化失真对重建虚拟视点图像质量产生的影响,提出一种面向虚拟视点绘制的深度压缩算法。根据深度数据的统计特性,设计一种基于三次B样条函数的上下采样方法对深度图进行下采样,采用多视点视频编码(Multiview Video Coding,MVC)方法对下采样深度图进行编码;在解码端则对深度图进行上采样,并针对解码深度图边缘处的模糊现象,用双边滤波器优化深度图边界。实验结果表明,与传统的MVC编码方案相比,该方案在保持虚拟绘制图像质量不变(甚至略有提升)的情况下,显著降低了传输码率,有助于自由视点系统中多视点深度数据的传输。针对目前压缩深度图时很少考虑直接地减少绘制失真的问题,探索一种以绘制视点失真最小化的方法来压缩深度图,建立由有损深度编码引起深度变化而造成的绘制视失真(不是由绘制方法引起)的估计模型。首先推导由深度编码造成每个像素深度变化在绘制上的影响;然后计入由视频的局部特性对绘制失真的影响因素,提出一种精确的基于区域特性的绘制失真模型;最后将视点合成失真模型引入到深度编码率失真模型中来代替深度图像本身失真,以减小合成视失真。仿真结果表明,所提出的方法可改进绘制虚拟视点的客观质量、提高深度图的编码效率和减少视点绘制的赝像,比只考虑深度图失真的基于拉格朗日优化的模式选择方法提高约2dB PSNR增益。该方法可在自由视点系统的接收端获得高精度的重建图像。针对多视点视频+深度(Multiview Video plus Depth, MVD)编码复杂度高的问题,提出一种基于纹理图像与深度图像联合编码快速算法,利用深度图和视频图之间的相关性来减少不需要执行的编码模式。该算法主要包括:利用深度信息加快纹理编码过程中的模式选择和视差估计算法,基于纹理图像相关性的快速深度运动估计和提前终止跳过算法。实验结果表明,该算法在不降低编码效率的同时可以显著降低多视点视频+深度编码的计算复杂度,增强了FVV系统的实用性。