-
公开(公告)号:CN105898279B
公开(公告)日:2017-08-04
申请号:CN201610380129.9
申请日:2016-06-01
Applicant: 宁波大学
Abstract: 本发明公开了一种立体图像质量客观评价方法,其通过计算无失真立体图像和失真立体图像各自的左和右视点图像中的每个像素点经外侧膝状体处理后的响应输出及经初级视皮层单目处理后的响应输出、无失真立体图像的左和右视点图像中同坐标位置的像素点及失真立体图像的左和右视点图像中同坐标位置的像素点经初级视皮层双目处理后的在不同视差平面上的响应输出、无失真立体图像的左和右视点图像中同坐标位置的像素点及失真立体图像的左和右视点图像中同坐标位置的像素点经第二视皮层双目处理后的在不同视差平面上的响应输出,获得失真立体图像的质量矢量,其能较好地反映失真立体图像的质量变化情况,有效地提高了客观评价结果与主观感知之间的相关性。
-
公开(公告)号:CN104244008B
公开(公告)日:2017-05-03
申请号:CN201410464387.6
申请日:2014-09-12
Applicant: 宁波大学
IPC: H04N19/597 , H04N19/147 , H04N19/186
Abstract: 本发明公开了一种深度视频编码方法,其根据深度失真对虚拟视点图像绘制的影响,得到原始深度视频图像的最大可容忍失真分布图像,然后计算对原始深度视频图像进行宏块层编码的编码量化参数,接着计算对原始深度视频图像进行宏块层编码的率失真代价函数,最后采用HBP编码预测结构并根据已确立的编码量化参数和率失真代价函数对原始深度视频图像进行编码,优点是本发明方法在保证虚拟视点图像绘制性能的基础上,充分地消除了深度视频的视觉冗余信息,大大提高了深度视频图像的编码效率,并大大降低了深度视频图像的编码复杂度。
-
公开(公告)号:CN103632153B
公开(公告)日:2017-01-11
申请号:CN201310651864.5
申请日:2013-12-05
Applicant: 宁波大学
Abstract: 本发明公开了一种基于区域的图像显著图提取方法,其首先通过计算图像的全局颜色直方图,得到基于全局颜色直方图的图像显著图,然后采用超像素分割技术对图像进行分割,分别计算各个区域的颜色对比度和空间稀疏性,并利用区域之间的相似性进行加权,得到基于区域颜色对比度的图像显著图和基于区域空间稀疏性的图像显著图,最后对基于全局颜色直方图的图像显著图、基于区域颜色对比度的图像显著图和基于区域空间稀疏性的图像显著图进行融合,得到最终的图像显著图,优点是获得的图像显著图能够较好地反映全局和局部区域的显著变化情况,符合图像显著语义的特征。
-
公开(公告)号:CN105898279A
公开(公告)日:2016-08-24
申请号:CN201610380129.9
申请日:2016-06-01
Applicant: 宁波大学
CPC classification number: H04N17/00 , H04N13/00 , H04N17/004 , H04N2013/0074
Abstract: 本发明公开了一种立体图像质量客观评价方法,其通过计算无失真立体图像和失真立体图像各自的左和右视点图像中的每个像素点经外侧膝状体处理后的响应输出及经初级视皮层单目处理后的响应输出、无失真立体图像的左和右视点图像中同坐标位置的像素点及失真立体图像的左和右视点图像中同坐标位置的像素点经初级视皮层双目处理后的在不同视差平面上的响应输出、无失真立体图像的左和右视点图像中同坐标位置的像素点及失真立体图像的左和右视点图像中同坐标位置的像素点经第二视皮层双目处理后的在不同视差平面上的响应输出,获得失真立体图像的质量矢量,其能较好地反映失真立体图像的质量变化情况,有效地提高了客观评价结果与主观感知之间的相关性。
-
公开(公告)号:CN103533355B
公开(公告)日:2016-08-17
申请号:CN201310470508.3
申请日:2013-10-10
Applicant: 宁波大学
IPC: H04N19/00 , H04N19/114 , H04N19/147
Abstract: 本发明公开了一种HEVC快速编码方法,其通过对预测最大编码单元进行四叉树结构类型分析,快速获取表示当前的最大编码单元的深度遍历区间的类型值,在获取该类型值的过程中由于当前的最大编码单元与相邻已编码的最大编码单元以及前向参考帧和后向参考帧中坐标位置相同的最大编码单元之间具有很大的相关性,因此利用预测最大编码单元的深度遍历区间的类型值来获取当前的最大编码单元的深度遍历区间的类型值,从而避免了当前的最大编码单元分割过程中许多不必要的深度遍历,在保证视频质量和码率不变的前提下,有效地降低了编码的计算复杂度。
-
公开(公告)号:CN103167291B
公开(公告)日:2016-04-27
申请号:CN201310074764.0
申请日:2013-03-08
Applicant: 宁波大学
IPC: H04N19/895 , H04N19/597
Abstract: 本发明公开了一种基于结构相似度的立体视频整帧丢失错误隐藏方法,其有效结合了人眼对图像结构信息的主观感知,通过判断丢失帧前一时刻参考图像帧的宏块参考模式,针对丢失帧中不同宏块参考模式的宏块,分别采用运动补偿预测方法或者视差补偿预测方法进行错误恢复,由于充分考虑了传统立体视频的时域相关性和视点间相关性,还重点结合了人眼对图像结构相似度的主观感知,因此不仅能够提高丢失帧恢复的客观质量,而且还能使得丢失帧恢复的主观质量更接近于人眼感知。
-
公开(公告)号:CN105430370A
公开(公告)日:2016-03-23
申请号:CN201510827858.X
申请日:2015-11-24
Applicant: 宁波大学
CPC classification number: H04N13/106 , H04N17/00
Abstract: 本发明公开了一种基于排序学习的立体图像视觉舒适度评价方法,其在训练阶段,通过选取多幅不同视觉舒适度等级的立体图像组成初始训练图像集,利用排序学习方法建立初始训练图像集中的所有立体图像的特征矢量与视觉舒适度等级之间的视觉舒适度排序模型,能够有效地模拟人眼主观评价中的多等级打分机制;在测试阶段,计算测试立体图像的特征矢量,并根据视觉舒适度排序模型预测对应的排序值,将排序值作为视觉舒适度客观评价预测值,由于主观评价的实质就是让主观测试者根据自身舒适度感受对测试立体图像进行多等级打分,视觉舒适度排序模型能够很好地模拟多等级打分机制,因此视觉舒适度客观评价预测值与主观评价值保持了较好的一致性。
-
公开(公告)号:CN103325084B
公开(公告)日:2016-03-16
申请号:CN201310270391.4
申请日:2013-06-27
Applicant: 宁波大学
IPC: G06T1/00
Abstract: 本发明公开了一种基于JJND(Joint Just Noticeable distortion)的立体图像篡改定位及恢复的脆弱水印算法。首先根据JJND模型及立体图像匹配块个数将立体图像块分为相对敏感和相对不敏感块;然后对图像块进行离散余弦变换和量化压缩生成恢复水印;根据JJND模型及图像块类型,建立立体图像不同类型块的非对称水印嵌入。恢复水印也用于定位篡改区域的位置,进一步提高了图像的透明性。同时立体图像中恢复水印的拷贝嵌入,提高水印恢复篡改信息的能力。实验结果表明:本方法对篡改位置的定位精度较精确,并且对篡改区域有较高的恢复能力。
-
公开(公告)号:CN105321175A
公开(公告)日:2016-02-10
申请号:CN201510613829.3
申请日:2015-09-23
Applicant: 宁波大学
IPC: G06T7/00
CPC classification number: G06T2207/20081 , G06T2207/30168
Abstract: 本发明公开了一种基于结构纹理稀疏表示的立体图像质量客观评价方法,其在训练阶段,对多幅无失真立体图像的左视点图像实施结构纹理分离,然后通过无监督学习方式对由所有结构图像中的子块构成的集合进行字典训练得到结构字典表,并对由所有纹理图像中的子块构成的集合进行字典训练得到纹理字典表;在测试阶段,根据在训练阶段构造得到的结构字典表和纹理字典表,联合优化得到结构稀疏系数矩阵和纹理稀疏系数矩阵,并计算失真立体图像的图像质量客观评价预测值,与主观评价值保持了较好的一致性,并且在测试阶段不需要再计算结构字典表和纹理字典表,降低了计算复杂度,同时无需预知各评价图像的主观评价值,使得本发明方法适用于实际的应用场合。
-
公开(公告)号:CN105243385A
公开(公告)日:2016-01-13
申请号:CN201510613840.X
申请日:2015-09-23
Applicant: 宁波大学
Abstract: 本发明公开了一种基于非监督学习的图像质量评价方法,其在训练阶段,根据每个子块的HOG特征统计直方图及所有像素点在不同中心频率和不同方向因子下的振幅的均值,获取图像特征矢量,并根据每个子块的客观评价预测值获取图像质量矢量;接着根据每个子块的图像特征矢量和图像质量矢量,通过非监督学习方式分别构造图像特征字典表和图像质量字典表;在测试阶段,根据图像特征字典表通过优化得到测试图像中的每个子块的稀疏系数矩阵,并通过稀疏系数矩阵和图像质量字典表得到图像质量客观评价预测值,其与主观评价值保持了较好的一致性,且不需要再计算图像特征字典表和图像质量字典表,降低了计算复杂度,同时无需预知各评价图像的主观评价值。
-
-
-
-
-
-
-
-
-