-
公开(公告)号:CN104469387A
公开(公告)日:2015-03-25
申请号:CN201410777486.X
申请日:2014-12-15
Applicant: 哈尔滨工业大学
IPC: H04N19/597 , H04N19/513
Abstract: 一种多视点视频编码中分量间的运动参数继承方法,涉及多视点视频编码领域。本发明是为了提升多视点视频的编码性能,减少多视点视频的传输带宽和存储空间。对于处于依赖视点中的当前块,获取所述当前块相对于视间参考帧的视差矢量;根据求出的所述视差矢量定位到当前块在视间参考帧中的对应块,用视间对应块中已经编码的运动信息预测当前块的运动信息;编码深度图时,用对应纹理图中与当前深度块具有相同位置的对应纹理块的运动信息预测当前深度块的运动信息。利用视间相关性提出视点间的运动参数继承方法,增强依赖视点的编码性能;利用深度图和对应纹理图间的相关性提出深度-纹理间的运动参数继承方法,增强深度信息的编码性能。有效提高多视点视频的编码效率。
-
公开(公告)号:CN104469387B
公开(公告)日:2017-11-03
申请号:CN201410777486.X
申请日:2014-12-15
Applicant: 哈尔滨工业大学
IPC: H04N19/597 , H04N19/513
Abstract: 一种多视点视频编码中分量间的运动参数继承方法,涉及多视点视频编码领域。本发明是为了提升多视点视频的编码性能,减少多视点视频的传输带宽和存储空间。对于处于依赖视点中的当前块,获取所述当前块相对于视间参考帧的视差矢量;根据求出的所述视差矢量定位到当前块在视间参考帧中的对应块,用视间对应块中已经编码的运动信息预测当前块的运动信息;编码深度图时,用对应纹理图中与当前深度块具有相同位置的对应纹理块的运动信息预测当前深度块的运动信息。利用视间相关性提出视点间的运动参数继承方法,增强依赖视点的编码性能;利用深度图和对应纹理图间的相关性提出深度‑纹理间的运动参数继承方法,增强深度信息的编码性能。有效提高多视点视频的编码效率。
-