一种基于质降时域加权的立体视频客观质量评价方法

    公开(公告)号:CN104767993A

    公开(公告)日:2015-07-08

    申请号:CN201510161665.5

    申请日:2015-04-08

    Applicant: 宁波大学

    Abstract: 本发明公开了一种基于质降时域加权的立体视频客观质量评价方法,其考虑到人眼在视频感知过程中存在的时域感知冗余特性,利用无失真的立体视频的运动强度均值和运动强度方差及每个帧组的运动强度均值和运动强度方差,确定无失真的立体视频中的每个帧组的运动强度等级;然后对于不同运动强度等级的帧组,通过不同密度的帧提取策略选取无失真质降立体图像;接着度量同时刻的失真质降立体图像相对于无失真质降立体图像的质量;最终通过加权各同时刻的失真质降立体图像相对于无失真质降立体图像的质量,得到失真的立体视频相对于无失真的立体视频的质量;优点是获得的质量更符合人眼的时域感知,有效地提高了客观评价结果与主观感知之间的相关性。

    一种基于三维小波变换的视频质量评价方法

    公开(公告)号:CN104202594A

    公开(公告)日:2014-12-10

    申请号:CN201410360953.9

    申请日:2014-07-25

    Applicant: 宁波大学

    Abstract: 本发明公开了一种基于三维小波变换的视频质量评价方法,其将三维小波变换应用于视频质量评价之中,对视频中的各帧组进行二级三维小波变换,通过在时间轴上对视频序列的分解完成对帧组内时域信息的描述,在一定程度上解决了视频时域信息描述困难的问题,有效地提高了视频客观质量评价的准确性,从而有效地提高了客观评价结果与人眼主观感知质量之间的相关性;其对于帧组间存在的时域相关性,通过运动剧烈程度和亮度特征对各帧组的质量进行加权,从而使得本发明方法能较好地符合人眼视觉特性。

    一种基于时空域结构的高效视频质量客观评价方法

    公开(公告)号:CN106028026A

    公开(公告)日:2016-10-12

    申请号:CN201610367702.2

    申请日:2016-05-27

    Applicant: 宁波大学

    CPC classification number: H04N17/02 H04N19/154 H04N19/89 H04N17/004

    Abstract: 本发明公开了一种基于时空域结构的高效视频质量客观评价方法,其首先通过时空域梯度结合颜色信息计算时空域局部相似度,然后在空域融合阶段采用方差融合,将时空域局部相似度融合成帧级的客观质量值,再通过模拟人类视觉系统中三个重要的全局时域效应,即平滑效应、不对称追踪效应和时近效应,建立时域融合模型,对帧级的客观质量值进行时域融合,最终得到失真视频序列的客观质量值,通过对人类视觉时域效应建模,使得本发明的时域加权方法可以准确高效的评价失真视频的客观质量。

    一种基于三维小波变换的视频质量评价方法

    公开(公告)号:CN104202594B

    公开(公告)日:2016-04-13

    申请号:CN201410360953.9

    申请日:2014-07-25

    Applicant: 宁波大学

    Abstract: 本发明公开了一种基于三维小波变换的视频质量评价方法,其将三维小波变换应用于视频质量评价之中,对视频中的各帧组进行二级三维小波变换,通过在时间轴上对视频序列的分解完成对帧组内时域信息的描述,在一定程度上解决了视频时域信息描述困难的问题,有效地提高了视频客观质量评价的准确性,从而有效地提高了客观评价结果与人眼主观感知质量之间的相关性;其对于帧组间存在的时域相关性,通过运动剧烈程度和亮度特征对各帧组的质量进行加权,从而使得本发明方法能较好地符合人眼视觉特性。

    一种基于时空域结构的高效视频质量客观评价方法

    公开(公告)号:CN106028026B

    公开(公告)日:2017-09-05

    申请号:CN201610367702.2

    申请日:2016-05-27

    Applicant: 宁波大学

    CPC classification number: H04N17/02 H04N19/154 H04N19/89

    Abstract: 本发明公开了一种基于时空域结构的高效视频质量客观评价方法,其首先通过时空域梯度结合颜色信息计算时空域局部相似度,然后在空域融合阶段采用方差融合,将时空域局部相似度融合成帧级的客观质量值,再通过模拟人类视觉系统中三个重要的全局时域效应,即平滑效应、不对称追踪效应和时近效应,建立时域融合模型,对帧级的客观质量值进行时域融合,最终得到失真视频序列的客观质量值,通过对人类视觉时域效应建模,使得本发明的时域加权方法可以准确高效的评价失真视频的客观质量。

    基于双目视觉感知的无参考立体图像质量客观评价方法

    公开(公告)号:CN105407349B

    公开(公告)日:2017-05-03

    申请号:CN201510855619.5

    申请日:2015-11-30

    Applicant: 宁波大学

    Abstract: 本发明公开了一种基于双目视觉感知的无参考立体图像质量客观评价方法,其利用能量增益控制模型构建失真立体图像的会聚独眼图,利用左、右视点图像构建左、右视差图及不确定左、右图;然后,对会聚独眼图提取曲波域特征,并分别在左、右视差图及不确定左、右图上提取广义高斯拟合参数特征和对数正态分布拟合参数特征,将这三部分特征作为立体图像特征信息;最后通过支持向量回归建立立体图像特征与平均主观评分差值之间的关系,得到失真立体图像的客观质量评价预测值;优点在于获得的失真立体图像的特征向量具有较强的稳定性且能够反映失真立体图像的质量变化情况,与人眼的主观感知具有很好的一致性,提高了客观评价结果与主观感知之间的相关性。

    一种面向压缩失真的立体视频质量客观评价方法

    公开(公告)号:CN104394403B

    公开(公告)日:2016-04-27

    申请号:CN201410612196.X

    申请日:2014-11-04

    Applicant: 宁波大学

    Abstract: 本发明公开了一种面向压缩失真的立体视频质量客观评价方法,其将立体视频质量分为左右视点质量和深度感知质量两部分,在左右视点质量评价部分,考虑到视频图像受到压缩失真会产生块效应和模糊的特点,提取梯度信息作为图像特征,同时考虑到人眼的时空域视觉特性,从而得到左视点质量和右视点质量;在深度感知质量评价部分,通过三维小波变换提取三维视差空间图中的低频成分,并将其质量作为立体视频的深度感知质量;最后,将左视点质量、右视点质量和深度感知质量相结合,得到最终的失真立体视频质量;优点是从左右视点平面视频质量的角度和立体视频深度感的角度完成对立体视频的客观质量评价,有效地提高了客观评价结果与主观感知之间的相关性。

    基于双目视觉感知的无参考立体图像质量客观评价方法

    公开(公告)号:CN105407349A

    公开(公告)日:2016-03-16

    申请号:CN201510855619.5

    申请日:2015-11-30

    Applicant: 宁波大学

    Abstract: 本发明公开了一种基于双目视觉感知的无参考立体图像质量客观评价方法,其利用能量增益控制模型构建失真立体图像的会聚独眼图,利用左、右视点图像构建左、右视差图及不确定左、右图;然后,对会聚独眼图提取曲波域特征,并分别在左、右视差图及不确定左、右图上提取广义高斯拟合参数特征和对数正态分布拟合参数特征,将这三部分特征作为立体图像特征信息;最后通过支持向量回归建立立体图像特征与平均主观评分差值之间的关系,得到失真立体图像的客观质量评价预测值;优点在于获得的失真立体图像的特征向量具有较强的稳定性且能够反映失真立体图像的质量变化情况,与人眼的主观感知具有很好的一致性,提高了客观评价结果与主观感知之间的相关性。

    一种基于人眼感知的质降参考立体图像质量客观评价方法

    公开(公告)号:CN104144339A

    公开(公告)日:2014-11-12

    申请号:CN201410264212.0

    申请日:2014-06-13

    Applicant: 宁波大学

    Abstract: 本发明公开了一种基于人眼感知的质降参考立体图像质量客观评价方法,其通过结合人眼对立体图像的双目感知特性,考虑人眼的双目融合特性和双目竞争特性,对无失真的立体图像的左视点图像和右视点图像及失真的立体图像的左视点图像和右视点图像实施双目立体感知分解,得到各自的双目融合区域和双目竞争区域,再提取无失真的立体图像的左视点图像和右视点图像各自的双目融合区域和双目竞争区域有效的质降参考特征,利用提取的质降参考特征对失真的立体图像进行评价,能够有效地提高客观评价结果与主观感知之间的相关性。

Patent Agency Ranking