一种多视点视频编码中的视差矢量获取方法

    公开(公告)号:CN104394417B

    公开(公告)日:2017-07-28

    申请号:CN201410777487.4

    申请日:2014-12-15

    Abstract: 一种多视点视频编码中的视差矢量获取方法,本发明涉及视差矢量获取方法。本发明解决依赖于当前帧中的当前块的空域邻近块,影响编码过程中的并行性以及得到的当前块的预测信息不够准确的问题而提出的一种多视点视频编码标准中的视差矢量获取方法。该方法是通过一、划分为L*W单元区域;二、划分为l*w的单元;三、利用视差矢量的均值、中值、最大值、最小值或者加权平均值获取L*W的单元区域的视差矢量;四、预测当前块的运动矢量;五、得到视间参考帧对应的视差信息;六、将步骤三获取的L*W单元区域的视差矢量用于加权模式中得到视间参考帧对应的视差信息;七、得到当前块的像素值。本发明应用于视差矢量获取领域。

    一种多视点视频编码中分量间的运动参数继承方法

    公开(公告)号:CN104469387A

    公开(公告)日:2015-03-25

    申请号:CN201410777486.X

    申请日:2014-12-15

    Abstract: 一种多视点视频编码中分量间的运动参数继承方法,涉及多视点视频编码领域。本发明是为了提升多视点视频的编码性能,减少多视点视频的传输带宽和存储空间。对于处于依赖视点中的当前块,获取所述当前块相对于视间参考帧的视差矢量;根据求出的所述视差矢量定位到当前块在视间参考帧中的对应块,用视间对应块中已经编码的运动信息预测当前块的运动信息;编码深度图时,用对应纹理图中与当前深度块具有相同位置的对应纹理块的运动信息预测当前深度块的运动信息。利用视间相关性提出视点间的运动参数继承方法,增强依赖视点的编码性能;利用深度图和对应纹理图间的相关性提出深度-纹理间的运动参数继承方法,增强深度信息的编码性能。有效提高多视点视频的编码效率。

    一种多视点视频编码中分量间的运动参数继承方法

    公开(公告)号:CN104469387B

    公开(公告)日:2017-11-03

    申请号:CN201410777486.X

    申请日:2014-12-15

    Abstract: 一种多视点视频编码中分量间的运动参数继承方法,涉及多视点视频编码领域。本发明是为了提升多视点视频的编码性能,减少多视点视频的传输带宽和存储空间。对于处于依赖视点中的当前块,获取所述当前块相对于视间参考帧的视差矢量;根据求出的所述视差矢量定位到当前块在视间参考帧中的对应块,用视间对应块中已经编码的运动信息预测当前块的运动信息;编码深度图时,用对应纹理图中与当前深度块具有相同位置的对应纹理块的运动信息预测当前深度块的运动信息。利用视间相关性提出视点间的运动参数继承方法,增强依赖视点的编码性能;利用深度图和对应纹理图间的相关性提出深度‑纹理间的运动参数继承方法,增强深度信息的编码性能。有效提高多视点视频的编码效率。

    一种多视点视频编码中的视差矢量获取方法

    公开(公告)号:CN104394417A

    公开(公告)日:2015-03-04

    申请号:CN201410777487.4

    申请日:2014-12-15

    Abstract: 一种多视点视频编码中的视差矢量获取方法,本发明涉及视差矢量获取方法。本发明解决解决依赖于当前帧中的当前块的空域邻近块,影响编码过程中的并行性以及得到的当前块的预测信息不够准确的问题而提出的一种多视点视频编码标准中的视差矢量获取方法。该方法是通过一、划分为L*W单元区域;二、划分为l*w的单元;三、利用视差矢量的均值、中值、最大值、最小值或者加权平均值获取L*W的单元区域的视差矢量;四、预测当前块的运动矢量;五、得到视间参考帧对应的视差信息;六、将步骤三获取的L*W单元区域的视差矢量用于加权模式中得到视间参考帧对应的视差信息;七、得到当前块的像素值等步骤实现的。本发明应用于视差矢量获取领域。

Patent Agency Ranking