论文部分内容阅读
近年来,3D视频在电影娱乐以及日常生活应用中日益火热。3D视频其实是由多个相机分布在不同视角拍摄得到的,由于多个视点的纹理图和深度图需要巨大的空间去存储以及很高的带宽去传输,并且各个视点间存在大量的冗余,因此如何有效的利用空间冗余性去编码压缩3D视频成为大家研究的热点。目前最新的3D视频编码标准的制定在国际上仍然在不断进行,如3DHEVC,而国内具有自主知识产权的数字视频编码标准AVS(Audio and Video coding Standard)工作组基于现在日益增加的3D视频的压缩需求,也开始召集针对3D视频的编码标准和平台。本文首先基于AVS2编码标准参与研发了一个3D-AVS2编码平台,该平台可以实现多视点纹理加深度的视频输入,其中基准视点的纹理图和深度图可以使用未经修改的AVS2编码器进行编码,而在依赖视点加入了视差补偿预测等基本工具,使依赖视点可以利用视间的相关性通过已经编码完成的独立视点来进行预测。纹理图和深度图的编码是独立进行,没有相互参考,各个视点的纹理图和深度图像经过编码后输出混合的3D视频码流。实验结果显示本文提出的平台相对于使用AVS2编码器单独编码3个视点的视频,平均3个视点的纹理图的BD-rate减少可以达到18.2%。由于3D视频是由水平方向不同位置的相机拍摄,因此现实中同一个物体在不同视点中也映射到不同的位置,而视点间不同的位置可以用一个视差来表示。在3D-AVS2平台中的3D工具缺少一个有效的视差矢量获取方法,因此在本文中提出了一种有效的全局视差矢量获取方案,该方法利用同视点中的时域参考图像给当前图像导出一个全局视差矢量,该视差矢量可以使用到视差补偿预测、加权跳过模式以及视间运动预测等3D工具中。实验结果显示,该方法相比参考软件RFD0.1,平均3个视点的纹理图BD-rate减少可以达到1.6%。在允许编码深度图的前提下,由于视差可以由深度值和相机参数计算得到,因此本文在全局视差矢量的基础上提出了基于深度调整的全局视差矢量,先使用全局视差矢量定位到独立视点的位置,再通过相应位置的深度值和相机参数导出一个更精确的视差矢量。实验结果显示,该方法相比参考软件RFD1.0,平均3个视点的纹理图BD-rate减少可以达到3.61%。既然同一物体可以在不同视点间通过一个视差来表示,那么他们在不同视点中的运动信息也是相似的,因此本文中提出了一种基于四叉树划分的视间运动预测,在依赖视点的编码过程中利用独立视点中已经编码的运动信息来进行预测。实验结果显示,该方法相比参考软件RFD0.1,平均3个视点的纹理图BD-rate减少可以达到4.7%。