-
公开(公告)号:CN106210711B
公开(公告)日:2017-10-31
申请号:CN201610645414.9
申请日:2016-08-05
Applicant: 宁波大学
Abstract: 本发明公开了一种无参考立体图像质量评价方法,其在训练阶段,通过主观实验获得失真立体图像的分类标签,并将所有无失真立体图像、所有失真立体图像及各自对应的分类标签构成训练图像集,并通过联合字典训练得到训练图像集的左、右视点图像特征字典表和左、右视点图像质量字典表及变换矩阵,左、右视点图像特征字典表和左、右视点图像质量字典表具有可辨别性;在测试阶段,根据左、右视点图像特征字典表,通过优化得到稀疏系数矩阵,再通过稀疏系数矩阵和左、右视点图像质量字典表,计算图像质量客观评价预测值,因左、右视点图像特征字典表和左、右视点图像质量字典表具有可辨别性,使得图像质量客观评价预测值与主观评价值保持了较好的一致性。
-
公开(公告)号:CN104394413B
公开(公告)日:2017-06-30
申请号:CN201410675063.7
申请日:2014-11-21
Applicant: 宁波大学
IPC: H04N19/129 , H04N19/139 , H04N19/625 , G06T7/00
Abstract: 本发明公开了一种视频显著图提取方法,其首先根据解码得到的解码视频中的每帧解码帧中的每个子块的运动矢量和每个子块中的每个像素点的DCT系数,分别获得解码视频中的每帧解码帧的运动显著图和纹理显著图;然后根据解码视频中的每帧解码帧的纹理显著图,获取每帧解码帧的纹理不确定性图,并根据解码视频中的每帧解码帧的运动显著图,获取每帧解码帧的运动不确定性图;再根据解码视频中的每帧解码帧的纹理不确定性图和运动不确定性图,对解码视频中的每帧解码帧的纹理显著图和运动显著图进行融合,得到解码视频中的每帧解码帧的视频显著图;优点是所获得的视频显著图能够较好地反映视频的静态和动态区域的显著变化情况,符合压缩域显著语义的特征。
-
公开(公告)号:CN104392233B
公开(公告)日:2017-06-06
申请号:CN201410675041.0
申请日:2014-11-21
Applicant: 宁波大学
Abstract: 本发明公开了一种基于区域的图像显著图提取方法,其先采用超像素分割技术对源图像进行分割,然后分别计算各个区域之间的颜色相似性、纹理相似性和空间相似性,再根据各个区域之间的颜色相似性、纹理相似性和空间相似性得到各个区域之间的相似性,接着利用各个区域之间的相似性获得源图像的基于区域颜色对比度的图像显著图、基于区域纹理对比度的图像显著图和基于区域空间紧密度的图像显著图,最终对三幅图像显著图进行融合,得到源图像的最终的图像显著图;优点是获得的图像显著图能够较好地反映图像的显著变化情况,符合图像显著语义的特征。
-
公开(公告)号:CN106570900A
公开(公告)日:2017-04-19
申请号:CN201610886052.2
申请日:2016-10-11
Applicant: 宁波大学
IPC: G06T7/593
CPC classification number: G06T2207/10012 , G06T2207/20228
Abstract: 本发明公开了一种立体图像重定位方法,其通过提取左视点图像的形状保护能量项、形状一致能量项、边界弯曲度能量项和舒适度保持能量项,并通过优化使得左视点图像的总能量最小,获取最佳相似变换矩阵,这样使得获得的重定位立体图像能够较好地保留重要的显著语义信息且保持视觉舒适性;其对立体图像的三维空间的水平坐标位置、垂直坐标位置和深度值同时进行调整,从而保留了重定位后的左视点图像重要的显著信息,同时又能保证与根据重定位后的左视差图获得的重定位后的右视点图像是匹配的,从而能够保证重定位后的立体图像的舒适性。
-
公开(公告)号:CN105976395A
公开(公告)日:2016-09-28
申请号:CN201610270703.5
申请日:2016-04-27
Applicant: 宁波大学
IPC: G06T7/20
CPC classification number: G06T2207/10016 , G06T2207/20081
Abstract: 本发明公开了一种基于稀疏表示的视频目标跟踪方法,其根据训练图像集构造正样本集合和负样本集合,并根据正样本集合的稀疏系数矩阵和负样本集合的稀疏系数矩阵,优化得到训练图像集的目标区域字典,增强了目标区域字典的辨别能力;其获取训练图像集的目标区域字典及目标区域位置掩膜和目标区域重要性掩膜,对于任意一幅测试图像,只需要计算几个固定的子块的稀疏系数矩阵构造外观模型,并通过计算与前一帧图像中的目标区域的外观模型的相似性就能得到当前的目标区域,具有较高的跟踪精度。
-
公开(公告)号:CN104581143B
公开(公告)日:2016-08-24
申请号:CN201510017701.0
申请日:2015-01-14
Applicant: 宁波大学
IPC: H04N17/00 , H04N19/154 , H04N13/00
Abstract: 本发明公开了一种基于机器学习的无参考立体图像质量客观评价方法,其通过在训练阶段构造视觉字典表,对于任意一幅失真立体图像的左视点图像和右视点图像,根据已构造的视觉字典表,计算左视点图像和右视点图像各自中的每个子块的稀疏系数矩阵,并通过最大池化方法得到左视点图像和右视点图像各自的特征矢量,特征提取简单,计算复杂度低;通过构造左视点图像和右视点图像的支持向量回归训练模型,预测得到测试样本数据集合中的每个特征矢量对应的左视点图像和右视点图像各自的客观质量评价预测值,并根据特征矢量信息进行加权,得到立体图像的客观质量评价预测值,客观评价结果与主观感知之间的相关性高。
-
公开(公告)号:CN103914835B
公开(公告)日:2016-08-17
申请号:CN201410104299.5
申请日:2014-03-20
Applicant: 宁波大学
IPC: G06T7/00
Abstract: 本发明公开了一种针对模糊失真立体图像的无参考质量评价方法,其在训练阶段,选择多幅无失真立体图像和对应的模糊失真立体图像构成训练图像集,采用二维经验模式分解对模糊失真立体图像进行分解得到内蕴模式函数图像,并采用K均值聚类方法构造视觉字典表;通过获取模糊失真立体图像中的像素点的客观评价度量值,构造视觉质量表;在测试阶段,采用二维经验模式分解对测试立体图像进行分解得到内蕴模式函数图像,然后根据视觉字典表和视觉质量表,得到测试图像的图像质量客观评价预测值;优点是在训练阶段不需要复杂的机器学习训练过程,在测试阶段只需通过简单的视觉字典搜索过程就能得到图像质量客观评价预测值,且与主观评价值的一致性较好。
-
-
公开(公告)号:CN103745457B
公开(公告)日:2016-07-06
申请号:CN201310729004.9
申请日:2013-12-25
Applicant: 宁波大学
IPC: G06T7/00
Abstract: 本发明公开了一种立体图像客观质量评价方法,其在获取待评价的失真的立体图像的客观质量分值时,不仅考虑了待评价的失真的立体图像的左视点图像与原始的无失真的立体图像的左视点图像中所有的坐标位置相同的两个像素点之间的基于梯度的结构相似度,及待评价的失真的立体图像的右视点图像与原始的无失真的立体图像的右视点图像中所有的坐标位置相同的两个像素点之间的基于梯度的结构相似度,还考虑了人眼在观察立体图像时会产生的双目掩盖效应,将结构失真与双目掩盖效应相结合,使得对待评价的失真的立体图像的客观评价结果与主观感知的一致性更高。
-
公开(公告)号:CN104820988A
公开(公告)日:2015-08-05
申请号:CN201510227674.X
申请日:2015-05-06
Applicant: 宁波大学
IPC: G06T7/00
CPC classification number: G06T7/0002 , G06T2207/10012 , G06T2207/30168
Abstract: 本发明公开了一种无参考立体图像质量客观评价方法,其在训练阶段选择多幅失真立体图像构成训练样本集合,采用Gabor滤波器获取失真立体图像中的每个像素点在不同中心频率、不同方向因子和不同相位偏移下的振幅,通过计算失真立体图像中的所有像素点在不同中心频率、不同方向因子和不同相位偏移下的振幅的均值、方差和熵获得特征矢量,再采用K均值聚类方法得到训练样本集合的聚类中心;在测试阶段通过计算失真测试立体图像与训练样本集合中属于不同聚类的每副失真立体图像之间的距离及与每个聚类中心之间的距离,对每幅失真立体图像的平均主观评分差值进行加权得到图像质量客观评价预测值;优点是计算复杂度低,客观评价结果与主观感知的相关性好。
-
-
-
-
-
-
-
-
-