-
公开(公告)号:CN103914835A
公开(公告)日:2014-07-09
申请号:CN201410104299.5
申请日:2014-03-20
Applicant: 宁波大学
IPC: G06T7/00
Abstract: 本发明公开了一种针对模糊失真立体图像的无参考质量评价方法,其在训练阶段,选择多幅无失真立体图像和对应的模糊失真立体图像构成训练图像集,采用二维经验模式分解对模糊失真立体图像进行分解得到内蕴模式函数图像,并采用K均值聚类方法构造视觉字典表;通过获取模糊失真立体图像中的像素点的客观评价度量值,构造视觉质量表;在测试阶段,采用二维经验模式分解对测试立体图像进行分解得到内蕴模式函数图像,然后根据视觉字典表和视觉质量表,得到测试图像的图像质量客观评价预测值;优点是在训练阶段不需要复杂的机器学习训练过程,在测试阶段只需通过简单的视觉字典搜索过程就能得到图像质量客观评价预测值,且与主观评价值的一致性较好。
-
公开(公告)号:CN102547368B
公开(公告)日:2014-05-07
申请号:CN201110422371.5
申请日:2011-12-16
Applicant: 宁波大学
Abstract: 本发明公开了一种立体图像质量客观评价方法,首先通过分别提取立体图像的反映图像质量的高斯模糊失真程度的特征矢量、反映图像质量的白噪声失真程度的特征矢量、反映图像质量的JPEG失真程度的特征矢量和反映图像质量的JPEG2000失真程度的特征矢量,得到立体图像的特性矢量,并利用支持向量回归训练模型对同一失真类型的每幅失真的立体图像进行测试,得到每幅失真的立体图像的客观质量评价预测值,优点在于由于本方法根据不同失真类型对失真的立体图像的影响,通过提取不同失真类型的特征信息并形成立体图像的特征矢量,因此获得的立体图像的特征矢量信息具有较强的稳定性且能够较好地反映立体图像的质量变化情况,提高了客观评价结果与主观感知的相关性。
-
公开(公告)号:CN102572446B
公开(公告)日:2014-02-26
申请号:CN201210005799.4
申请日:2012-01-10
Applicant: 宁波大学
IPC: H04N7/68
Abstract: 本发明公开了一种多视点视频整帧丢失错误隐藏方法,该方法通过预先判断丢失帧中各个图像块在时域与视点间相关性的强弱,以选择合适的参考帧,采用不同的恢复方法恢复丢失帧中的图像块,并对恢复得到的初步恢复帧进行空洞区域填补处理,得到丢失帧的最终恢复帧,优点在于本发明方法有效利用了视点间相关性与时域相关性,对于丢失帧中预先判定为时域相关性较强的图像块,采用时域直接拷贝的方法恢复图像块,不仅可减少计算复杂度,而且能提高所恢复的这部分图像块的主客观质量,而对于丢失帧中预先判定为时域相关性较差的图像块,采用视点间预测恢复的方法恢复图像块,可以有效提高这部分图像块恢复的准确性。
-
公开(公告)号:CN102420985B
公开(公告)日:2014-01-22
申请号:CN201110386288.7
申请日:2011-11-29
Applicant: 宁波大学
Abstract: 本发明公开了一种多视点视频对象提取方法,其通过纹理边缘检测、最大类间方差法提取多视点视频中的彩色视频帧的纹理信息和亮度信息,并利用多视点视频中的彩色视频帧对应的深度视频帧,采用前背景分割法获取彩色视频帧的前背景信息,然后将纹理信息、亮度信息和前背景信息相融合得到彩色视频帧的精细掩膜,最后通过运动信息和深度信息进一步地修正得到彩色视频帧最终的对象掩膜,由于本发明方法有效利用了多视点视频的纹理、亮度、深度、运动等多种信息,通过发掘它们之间各自的特性,取长补短,将多种信息有机地融合在一起,因此能够快速分割并提取得到符合人眼视觉感知的精准的视频对象,能够较好地满足多视点视频编码对对象提取方法的要求。
-
公开(公告)号:CN103167291A
公开(公告)日:2013-06-19
申请号:CN201310074764.0
申请日:2013-03-08
Applicant: 宁波大学
Abstract: 本发明公开了一种基于结构相似度的立体视频整帧丢失错误隐藏方法,其有效结合了人眼对图像结构信息的主观感知,通过判断丢失帧前一时刻参考图像帧的宏块参考模式,针对丢失帧中不同宏块参考模式的宏块,分别采用运动补偿预测方法或者视差补偿预测方法进行错误恢复,由于充分考虑了传统立体视频的时域相关性和视点间相关性,还重点结合了人眼对图像结构相似度的主观感知,因此不仅能够提高丢失帧恢复的客观质量,而且还能使得丢失帧恢复的主观质量更接近于人眼感知。
-
公开(公告)号:CN102355582B
公开(公告)日:2013-06-05
申请号:CN201110285331.0
申请日:2011-09-23
Applicant: 宁波大学
Abstract: 本发明公开了一种三维立体视频编码的率失真模型优化方法,其通过建立对原始左视点彩色视频、原始右视点彩色视频与原始左视点深度视频、原始右视点深度视频进行编码的率失真模型,并通过二次拟合方法建立编码量化步长与绘制失真的关系模型及编码量化步长与码率的关系模型,然后对率模型进行优化,分别获得在一定码率下对原始左视点彩色视频、原始右视点彩色视频和原始左视点深度视频、原始右视点深度视频进行编码的最佳初始编码量化参数,最后采用最佳初始编码量化参数分别对原始左视点彩色视频、原始右视点彩色视频与原始左视点深度视频、原始右视点深度视频进行编码,本方法在保证立体图像的整体质量的前提下,大大提高了虚拟视点图像的质量。
-
公开(公告)号:CN102685531A
公开(公告)日:2012-09-19
申请号:CN201210122017.5
申请日:2012-04-24
Applicant: 宁波大学
Abstract: 本发明公开了一种三维视频编码的深度和彩色码率分配方法,其在获得最优的虚拟视点绘制质量情况下,通过二次拟合方法建立对原始左视点彩色视频、原始右视点彩色视频编码量化步长与原始左视点深度视频、原始右视点深度视频编码量化步长的关系模型,进而将彩色和深度比特分配问题描述为一个标准一元三次方程,再获得在一定码率下对原始左视点彩色视频、原始右视点彩色视频和原始左视点深度视频、原始右视点深度视频进行编码的最佳初始编码量化参数,最后采用最佳初始编码量化参数分别对原始左视点彩色视频、原始右视点彩色视频与原始左视点深度视频、原始右视点深度视频进行编码,不仅提高了虚拟视点视频的率失真性能,而且简化了码率分配操作过程。
-
公开(公告)号:CN102567990A
公开(公告)日:2012-07-11
申请号:CN201110405275.X
申请日:2011-12-08
Applicant: 宁波大学
IPC: G06T7/00
Abstract: 本发明公开了一种立体图像客观质量评价方法,其通过对无失真立体图像和失真立体图像的左右视点图像进行小波变换,提取各子带的最小可视误差,计算各个子带的绝对差值图矩阵中敏感系数在各自子带所占比例;然后通过评价无失真立体图像和失真立体图像的左右视点图像的绝对差值图像强边缘和弱边缘的方向及结构相似度,采用线性组合的方式得到立体感知质量的评价;最后将左右视点图像的质量和立体感知质量相结合,得到对立体图像质量的最终评价结果,本发明有效利用了Watson模型、视觉灵敏度带通、多通道效应以及立体感知等人眼视觉特性,在评价左视点图像和右视点图像质量的基础上同时评价立体感知,提高了立体图像客观质量评价与主观感知之间的相关性。
-
公开(公告)号:CN102355582A
公开(公告)日:2012-02-15
申请号:CN201110285331.0
申请日:2011-09-23
Applicant: 宁波大学
Abstract: 本发明公开了一种三维立体视频编码的率失真模型优化方法,其通过建立对原始左视点彩色视频、原始右视点彩色视频与原始左视点深度视频、原始右视点深度视频进行编码的率失真模型,并通过二次拟合方法建立编码量化步长与绘制失真的关系模型及编码量化步长与码率的关系模型,然后对率模型进行优化,分别获得在一定码率下对原始左视点彩色视频、原始右视点彩色视频和原始左视点深度视频、原始右视点深度视频进行编码的最佳初始编码量化参数,最后采用最佳初始编码量化参数分别对原始左视点彩色视频、原始右视点彩色视频与原始左视点深度视频、原始右视点深度视频进行编码,本方法在保证立体图像的整体质量的前提下,大大提高了虚拟视点图像的质量。
-
公开(公告)号:CN110223268B
公开(公告)日:2021-06-11
申请号:CN201910333531.5
申请日:2019-04-24
Applicant: 宁波大学
Abstract: 本发明公开了一种绘制图像质量评价方法,其在训练阶段,利用尺度不变特征变换流建立原始图像与绘制图像之间的匹配关系,计算绘制图像的纹理失真和几何失真,然后利用支持向量回归对训练集中的由纹理失真和几何失真构成的特征矢量进行训练,构造得到绘制图像的支持向量回归训练模型;在测试阶段,通过计算测试集中的绘制图像的特征矢量,并根据构造的绘制图像的支持向量回归训练模型,预测得到测试集中的绘制图像的客观质量评价预测值,由于获得的特征矢量具有较强的稳定性且能够较好地反映绘制图像的质量变化情况,因此有效地提高了客观评价结果与主观感知之间的相关性。
-
-
-
-
-
-
-
-
-