-
公开(公告)号:CN102724525B
公开(公告)日:2014-11-05
申请号:CN201210180891.4
申请日:2012-06-01
Applicant: 宁波大学
Abstract: 本发明公开了一种基于中心凹恰可觉察失真模型的深度视频编码方法,其首先计算对左右视点彩色视频和左右视点深度视频进行中间虚拟视点绘制得到的中间虚拟视点视频中的每帧中的每个像素的全局恰可觉察失真,然后根据全局恰可觉察失真获取几何偏移的中间虚拟视点视频,接着根据几何偏移获取左视点深度视频的最大可容忍失真视频,再根据最大可容忍失真视频获取左视点深度视频的每帧中的每个宏块的可增加编码量化参数,该方法在能够维持虚拟视点视觉感知质量的前提下,有效节约了深度视频的编码码率,同时大大提高了深度视频序列的压缩编码效率,节省的码流可达到11.00~23.34%。
-
公开(公告)号:CN102567990B
公开(公告)日:2014-07-16
申请号:CN201110405275.X
申请日:2011-12-08
Applicant: 宁波大学
IPC: G06T7/00
Abstract: 本发明公开了一种立体图像客观质量评价方法,其通过对无失真立体图像和失真立体图像的左右视点图像进行小波变换,提取各子带的最小可视误差,计算各个子带的绝对差值图矩阵中敏感系数在各自子带所占比例;然后通过评价无失真立体图像和失真立体图像的左右视点图像的绝对差值图像强边缘和弱边缘的方向及结构相似度,采用线性组合的方式得到立体感知质量的评价;最后将左右视点图像的质量和立体感知质量相结合,得到对立体图像质量的最终评价结果,本发明有效利用了Watson模型、视觉灵敏度带通、多通道效应以及立体感知等人眼视觉特性,在评价左视点图像和右视点图像质量的基础上同时评价立体感知,提高了立体图像客观质量评价与主观感知之间的相关性。
-
公开(公告)号:CN102595185B
公开(公告)日:2014-06-25
申请号:CN201210046292.3
申请日:2012-02-27
Applicant: 宁波大学
CPC classification number: G06K9/00201 , G06T7/00 , G06T7/0004 , G06T2207/10012 , G06T2207/20021 , G06T2207/30168
Abstract: 本发明公开了一种立体图像质量客观评价方法,其通过模拟人类视觉系统处理立体图像的过程,获得立体图像在人类视觉系统中形成的cyclopean图像,该cyclopean图像是由遮挡区域、双目融合区域、双目掩蔽区域三个区域组成,根据图像奇异值表征图像属性具有较强的稳定性,结合人类视觉系统处理cyclopean图像中不同区域特点,采用测试立体图像和参考立体图像对应的cyclopean图像之间的奇异值距离来表示测试立体图像对应的cyclopean图像的失真程度,从而最终获得测试立体图像的整体视觉质量,本发明方法能够客观地反映立体图像受到各种图像处理和压缩方法影响下视觉质量的变化情况,与人类视觉系统特性相一致。
-
公开(公告)号:CN102685531B
公开(公告)日:2014-04-16
申请号:CN201210122017.5
申请日:2012-04-24
Applicant: 宁波大学
Abstract: 本发明公开了一种三维视频编码的深度和彩色码率分配方法,其在获得最优的虚拟视点绘制质量情况下,通过二次拟合方法建立对原始左视点彩色视频、原始右视点彩色视频编码量化步长与原始左视点深度视频、原始右视点深度视频编码量化步长的关系模型,进而将彩色和深度比特分配问题描述为一个标准一元三次方程,再获得在一定码率下对原始左视点彩色视频、原始右视点彩色视频和原始左视点深度视频、原始右视点深度视频进行编码的最佳初始编码量化参数,最后采用最佳初始编码量化参数分别对原始左视点彩色视频、原始右视点彩色视频与原始左视点深度视频、原始右视点深度视频进行编码,不仅提高了虚拟视点视频的率失真性能,而且简化了码率分配操作过程。
-
公开(公告)号:CN103632153A
公开(公告)日:2014-03-12
申请号:CN201310651864.5
申请日:2013-12-05
Applicant: 宁波大学
Abstract: 本发明公开了一种基于区域的图像显著图提取方法,其首先通过计算图像的全局颜色直方图,得到基于全局颜色直方图的图像显著图,然后采用超像素分割技术对图像进行分割,分别计算各个区域的颜色对比度和空间稀疏性,并利用区域之间的相似性进行加权,得到基于区域颜色对比度的图像显著图和基于区域空间稀疏性的图像显著图,最后对基于全局颜色直方图的图像显著图、基于区域颜色对比度的图像显著图和基于区域空间稀疏性的图像显著图进行融合,得到最终的图像显著图,优点是获得的图像显著图能够较好地反映全局和局部区域的显著变化情况,符合图像显著语义的特征。
-
公开(公告)号:CN102521825B
公开(公告)日:2014-01-29
申请号:CN201110364004.4
申请日:2011-11-16
Applicant: 宁波大学
Abstract: 本发明公开了一种基于零水印的立体图像质量客观评价方法,利用左右视点图像经小波分解后同一空间频率的水平和垂直方向子带的小波系数关系生成反映图像纹理结构的视点零水印,同时,利用左右视点图像的视差矢量的大小关系生成反映立体感知质量的视差零水印,然后,通过整合视点零水印和视差零水印的恢复率,得到立体图像质量客观评价值,由于结合了人眼视觉特性,利用了视觉对比敏感函数,并对立体感知质量进行了客观评价,因而本发明方法的客观评价结果与人类主观评价结果之间的一致性较好,而且本发明方法只需原始的无失真的立体图像的部分信息,属部分参考型的图像质量评价模型,适用于带宽有限的多媒体应用系统。
-
公开(公告)号:CN103475897A
公开(公告)日:2013-12-25
申请号:CN201310406821.0
申请日:2013-09-09
Applicant: 宁波大学
Abstract: 本发明公开了一种基于失真类型判断的自适应图像质量客观评价方法,该方法首先对图像的失真类型进行判断,将失真类型分为高斯白噪声失真、JPEG失真和类模糊失真三类,其中类模糊失真包含高斯模糊失真、JPEG2000失真和快衰落失真;利用失真判别结果,对受到高斯白噪声失真的图像采用基于像素域的结构相似度模型评价,对受到JPEG失真的图像采用基于DCT域的结构相似度模型评价,对受到类模糊失真的图像采用基于小波域的结构相似度模型评价。实施结果表明本发明提出的客观评价方法,通过失真判别方法,在对各不同失真类型的失真图像的评价很好的结合了各结构相似度评价模型的优点,评价结果与人眼主观感知一致较高。
-
公开(公告)号:CN103413298A
公开(公告)日:2013-11-27
申请号:CN201310304471.7
申请日:2013-07-17
Applicant: 宁波大学
IPC: G06T7/00
Abstract: 本发明公开了一种基于视觉特性的立体图像质量客观评价方法,其首先通过计算立体图像的左右视点图像中的每个像素点在不同中心频率和方向因子下的频率响应,并通过区域检测方法将立体图像划分为遮挡区域和双目融合区域,然后利用单目视觉特性和双目视觉特性对这两个区域分别进行评价,并对各评价结果进行融合得到最终的图像质量客观评价预测值,优点在于获得的不同中心频率和方向因子下的频率响应能够较好地反映人类视觉系统的视觉感知特性,并采用单目视觉特性和双目视觉特性分别进行评价,能够有效地提高客观评价结果与主观感知的相关性。
-
公开(公告)号:CN102333233B
公开(公告)日:2013-11-06
申请号:CN201110284944.2
申请日:2011-09-23
Applicant: 宁波大学
Abstract: 本发明公开了一种基于视觉感知的立体图像质量客观评价方法,首先将立体图像划分为强边缘块、弱边缘块、平坦块及纹理块,并通过计算提取出不同区域块的反映图像质量和深度感知的特性信息,得到立体图像特性矢量;然后通过支持向量回归对失真立体图像集合中相同失真类型的失真立体图像的特征矢量进行训练,并利用支持向量回归训练模型对同一失真类型的每幅失真立体图像进行测试,得到每幅失真立体图像的客观图像质量评价预测值,优点在于获得的反映图像质量和深度感知的特征矢量信息具有较强的稳定性且能够较好地反映立体图像的质量变化情况,提高了客观评价结果与主观感知的相关性。
-
公开(公告)号:CN103237226A
公开(公告)日:2013-08-07
申请号:CN201310117270.6
申请日:2013-04-07
Applicant: 宁波大学
Abstract: 本发明公开了一种立体视频宏块丢失错误隐藏方法,其首先确定丢失宏块属于左边界遮挡区域或右边界遮挡区域还是属于非边界遮挡区域,然后对属于非边界遮挡区域的丢失宏块,根据宏块的运动与静止特性将其归为运动宏块或静止宏块,接着利用宏块的人眼敏感度特性将运动宏块归为敏感块或不敏感块,再利用宏块的纹理与平滑特性将敏感块归为纹理块或平滑块,对属于左边界遮挡区域或右边界遮挡区域的丢失宏块、静止宏块、不敏感块、纹理块、平滑块分别采用时域运动补偿预测、时域帧拷贝、视差补偿预测、多方向插值、线性插值的方式恢复丢失宏块,由于本发明方法根据不同特性的宏块采用自适应的恢复策略,因此有效地提高了恢复的宏块的主客观质量。
-
-
-
-
-
-
-
-
-