基于双目恰可觉察失真的多视点彩色视频快速编码方法

    公开(公告)号:CN103442226A

    公开(公告)日:2013-12-11

    申请号:CN201310325370.8

    申请日:2013-07-30

    Applicant: 宁波大学

    Abstract: 本发明公开了一种基于双目恰可觉察失真的多视点彩色视频快速编码方法,其首先利用左视点视频和右视点视频的视差信息确定右视点视频中的每帧右视点图像中的非边界区域内的每个宏块的双目恰可觉察失真值,其次根据双目恰可觉察失真值的大小提前终止宏块模式选择,该快速编码方法在不造成率失真性能下降的基础上,能够有效地提高多视点彩色视频的编码效率,节约的编码时间可达66.48%到71.90%,平均节约编码时间68.46%。

    一种基于中心凹恰可觉察失真模型的深度视频编码方法

    公开(公告)号:CN102724525B

    公开(公告)日:2014-11-05

    申请号:CN201210180891.4

    申请日:2012-06-01

    Applicant: 宁波大学

    Abstract: 本发明公开了一种基于中心凹恰可觉察失真模型的深度视频编码方法,其首先计算对左右视点彩色视频和左右视点深度视频进行中间虚拟视点绘制得到的中间虚拟视点视频中的每帧中的每个像素的全局恰可觉察失真,然后根据全局恰可觉察失真获取几何偏移的中间虚拟视点视频,接着根据几何偏移获取左视点深度视频的最大可容忍失真视频,再根据最大可容忍失真视频获取左视点深度视频的每帧中的每个宏块的可增加编码量化参数,该方法在能够维持虚拟视点视觉感知质量的前提下,有效节约了深度视频的编码码率,同时大大提高了深度视频序列的压缩编码效率,节省的码流可达到11.00~23.34%。

    基于双目恰可觉察失真的多视点彩色视频快速编码方法

    公开(公告)号:CN103442226B

    公开(公告)日:2016-08-17

    申请号:CN201310325370.8

    申请日:2013-07-30

    Applicant: 宁波大学

    Abstract: 本发明公开了一种基于双目恰可觉察失真的多视点彩色视频快速编码方法,其首先利用左视点视频和右视点视频的视差信息确定右视点视频中的每帧右视点图像中的非边界区域内的每个宏块的双目恰可觉察失真值,其次根据双目恰可觉察失真值的大小提前终止宏块模式选择,该快速编码方法在不造成率失真性能下降的基础上,能够有效地提高多视点彩色视频的编码效率,节约的编码时间可达66.48%到71.90%,平均节约编码时间68.46%。

    一种基于中心凹恰可觉察失真模型的深度视频编码方法

    公开(公告)号:CN102724525A

    公开(公告)日:2012-10-10

    申请号:CN201210180891.4

    申请日:2012-06-01

    Applicant: 宁波大学

    Abstract: 本发明公开了一种基于中心凹恰可觉察失真模型的深度视频编码方法,其首先计算对左右视点彩色视频和左右视点深度视频进行中间虚拟视点绘制得到的中间虚拟视点视频中的每帧中的每个像素的全局恰可觉察失真,然后根据全局恰可觉察失真获取几何偏移的中间虚拟视点视频,接着根据几何偏移获取左视点深度视频的最大可容忍失真视频,再根据最大可容忍失真视频获取左视点深度视频的每帧中的每个宏块的可增加编码量化参数,该方法在能够维持虚拟视点视觉感知质量的前提下,有效节约了深度视频的编码码率,同时大大提高了深度视频序列的压缩编码效率,节省的码流可达到11.00~23.34%。

Patent Agency Ranking