基于模型的纹理视频与深度图的最优码率分配方法

    公开(公告)号:CN101835056A

    公开(公告)日:2010-09-15

    申请号:CN201010161550.3

    申请日:2010-04-29

    Abstract: 本发明公开了一种基于模型的纹理视频与深度图的最优码率分配方法,主要解决三维立体视频编码中的纹理视频与深度图的码率分配问题。其方案是:确定虚拟视图失真与纹理视频的量化步长、深度图的量化步长之间的关系;利用纹理视频的编码码率与纹理视频量化步长的关系、深度图的编码码率与深度图量化步长的关系,计算最优的纹理视频量化步长与最优的深度图的量化步长;并以最优的纹理视频量化步长和最优的深度图量化步长分别对纹理视频与深度图编码,实现纹理视频与深度图的最优码率分配。本发明具有复杂度低,且能使纹理视频与深度图的码率分配达到最优的优点,可用于三维立体视频编码中的纹理视频与深度图码率分配。

    一种用于解码器或编码器的帧间预测值构造方法

    公开(公告)号:CN119031127A

    公开(公告)日:2024-11-26

    申请号:CN202310596103.8

    申请日:2023-05-24

    Abstract: 本发明公开了一种用于解码器或编码器的帧间预测值构造方法,包括:获取当前编码块的帧内/帧间预测编码模式信息,并根据所述预测模式信息和对应的参数信息获得帧内预测值和帧间预测值;当加权权值在帧内预测编码模式为方向模式时,将当前编码块分为多个子块区域,对不同子块区域分别获得帧内预测权值和帧间预测权值,通过对各子块区域进行不同权值下的加权,确定预测采样值,其中,所述子块区域为矩形、三角形和/或L形。本发明针对各种方向性角度邻近帧内预测像素与当前编码块内像素的空间距离与相关性成反比的权值设置规则进行了改进,对CIIP技术中针对帧内和帧间预测权值进行细化,从而提高预测准确性。

    用于多视点深度视频编码的拉格朗日乘子修正方法

    公开(公告)号:CN106028046B

    公开(公告)日:2018-11-20

    申请号:CN201610517428.2

    申请日:2016-07-04

    Abstract: 本发明公开了一种用于多视点深度图编码的拉格朗日乘子修正方法,主要解决现有技术中没有考虑到同视点纹理质量对深度图拉格朗日乘子的影响,而导致3D视频的整体编码性能不高的问题。其实现方案是:在多视点深度视频编码前,根据待编码深度视频的量化参数Qd以及同视点纹理视频编码所采用的量化参数Qt,构建修正因子;用该修正因子对现有深度编码所采用的拉格朗日乘子进行修正;将修正后的拉格朗日乘子用于深度图编码的率失真优化过程中。本发明提升了3D视频的整体编码性能,可用于对任意纹理和深度量化参数QP组合方式的3D视频进行编码。

    用于多视点深度视频编码的虚拟视点合成失真预测方法

    公开(公告)号:CN106331728A

    公开(公告)日:2017-01-11

    申请号:CN201610802308.7

    申请日:2016-09-06

    CPC classification number: H04N19/597 H04N13/161

    Abstract: 本发明公开了一种用于多视点深度视频编码的虚拟视点合成失真预测方法,主要解决现有技术合成失真计算复杂度高、预测不准确的问题。其实现步骤是:1)构建像素级虚拟视点合成失真预测模型;2)获得当前深度编码块的数据块信息;3)利用数据块信息估计由深度图失真所导致的第一合成误差D1,以及由纹理图失真所导致的第二合成误差D2;4)将两个合成误差带入1)构建的合成失真模型,得到像素级合成失真预测值;6)对当前编码深度块所有像素点的合成失真预测值求和,得到虚拟视点合成失真值。本发明减少了预测复杂度,提高了合成失真估计准确性,改善了3D视频的整体编码性能,可用于对任意纹理和深度量化参数QP组合方式的3D视频进行编码。

    一种自由视点视频深度图编码的渐进式率失真优化方法

    公开(公告)号:CN105141956A

    公开(公告)日:2015-12-09

    申请号:CN201510481056.8

    申请日:2015-08-03

    Abstract: 本发明涉及一种自由视点视频深度图编码的渐进式率失真优化方法,其包括以下步骤:(1)、对深度图块采用某一编码模式试编码后得到比特数代价,如果大于最小率失真代价Jmin,则淘汰此模式,反之进入步骤(2),(2)、计算出深度图块的失真,加权后与比特数代价相加得到临时率失真代价,如果大于Jmin,则淘汰此模式,反之进入步骤(3),(3)、进入合成虚拟视点循环,每得到一个虚拟视点的失真,加权后与已有的率失真代价相加,如果大于Jmin,则终止此模式的率失真代价计算,否则继续计算下一个虚拟视点的失真,(4)、若虚拟视点全部合成完毕,所得失真大于Jmin,则淘汰此模式,反之则将此模式选为最佳模式。

    基于模型的纹理视频与深度图的最优码率分配方法

    公开(公告)号:CN101835056B

    公开(公告)日:2011-12-07

    申请号:CN201010161550.3

    申请日:2010-04-29

    Abstract: 本发明公开了一种基于模型的纹理视频与深度图的最优码率分配方法,主要解决三维立体视频编码中的纹理视频与深度图的码率分配问题。其方案是:确定虚拟视图失真与纹理视频的量化步长、深度图的量化步长之间的关系;利用纹理视频的编码码率与纹理视频量化步长的关系、深度图的编码码率与深度图量化步长的关系,计算最优的纹理视频量化步长与最优的深度图的量化步长;并以最优的纹理视频量化步长和最优的深度图量化步长分别对纹理视频与深度图编码,实现纹理视频与深度图的最优码率分配。本发明具有复杂度低,且能使纹理视频与深度图的码率分配达到最优的优点,可用于三维立体视频编码中的纹理视频与深度图码率分配。

Patent Agency Ranking