-
公开(公告)号:CN108900838B
公开(公告)日:2021-10-15
申请号:CN201810586755.2
申请日:2018-06-08
Applicant: 宁波大学
IPC: H04N19/147 , H04N19/19 , H04N19/186 , H04N19/154
Abstract: 本发明涉及一种基于HDR‑VDP‑2度量失真的率失真优化方法,并根据修正后的λ‑QP关系更正拉格朗日乘子λ,以进一步优化HDR视频编码过程中编码参数的选取策略,提高HEVC Main 10编码HDR视频的性能。首先,设计了一种基于HDR‑VDP‑2的失真计算方法并应用于HEVC的编码树单元结构,并建立了基于HDR‑VDP‑2失真准则的率失真代价函数模型;接着,为了确定率失真代价函数中的拉格朗日乘子λ,本发明采用固定的拉格朗日乘子λ进行编码,并利用多QP优化技术统计最优QP值,从而修正λ‑QP函数关系;最后,基于修正λ‑QP之间的关系确定当前编码视频帧的拉格朗日乘子λ,并将提出的率失真代价函数模型应用于HEVC Main 10编码器。同时,本发明能够保留编码重建视频更多纹理细节信息,能够提升HEVC编码HDR视频性能。
-
公开(公告)号:CN108495135B
公开(公告)日:2020-11-10
申请号:CN201810207320.2
申请日:2018-03-14
Applicant: 宁波大学
IPC: H04N19/136 , H04N19/172 , H04N19/96
Abstract: 本发明公开了一种屏幕内容视频编码的快速编码方法,其根据屏幕内容视频的内容特性对编码单元进行分类,根据编码单元的不同类型采取不同的预测模式,可以降低预测过程的编码复杂度;其用BP神经网络可以更准确地对编码单元进行分类,避免编码单元分类不准确带来的率失真性能损失;其用灰度共生矩阵衡量编码单元的复杂度,并结合时空域相关性可以更准确地对编码深度进行设置,节省了大量的编码时间。
-
公开(公告)号:CN108226855B
公开(公告)日:2020-07-14
申请号:CN201711336825.0
申请日:2017-12-14
Applicant: 宁波大学
IPC: G01S5/00
Abstract: 本发明公开了一种互耦情况下的远近场非圆联合参数估计方法,基于均匀中心对称的线阵,考虑阵列存在互耦效应下,将多维参数估计器解耦成几个一维参数估计器,在估计远近场混合信号的角度和距离参数同时,引入了在通信、雷达系统中广泛采用非圆信号,通过充分利用其非圆信息并解耦阵列导向矢量来提高了参数估计的精度。本发明方法与现有的算法相比,有着更高的参数估计精度,且能消除互耦效应的影响,该结论已通过仿真实验验证;本发明还可以通过判断距离的范围来判断信号源的类型。
-
公开(公告)号:CN107464222B
公开(公告)日:2019-08-20
申请号:CN201710549128.7
申请日:2017-07-07
Applicant: 宁波大学
Abstract: 本发明公开了一种基于张量空间的无参考高动态范围图像客观质量评价方法,其从图像数据本身出发,用三阶张量表示彩色的高动态范围图像,然后通过张量分解中的Tucker分解算法,对失真高动态范围图像进行张量分解,从而得到三个特征图像,即第一特征图像、第二特征图像和第三特征图像,三个特征图像中融合了高动态范围图像的颜色信息,接着提取第一特征图像的流形结构特征和第二、三特征图像的感知细节对比度特征,再利用机器学习中的支持向量回归的方法计算失真高动态范围图像的客观质量评价值,从而实现了无参考的彩色高动态范围图像的质量客观评价,评价效果明显提高,从而有效地提高客观评价结果与主观感知之间的相关性。
-
公开(公告)号:CN109218710A
公开(公告)日:2019-01-15
申请号:CN201811054805.9
申请日:2018-09-11
Applicant: 宁波大学
IPC: H04N17/00
Abstract: 本发明公开了一种自由视点视频质量评估方法,其先将每帧转换到LAB颜色空间;然后获取每帧的每个通道对应的时空域差值图;接着提取每帧的各个通道中的失真关键区域;再根据第1个通道中的失真关键区域并利用结构相似度算法获取质量分数;根据第2个通道和第3个通道各自中的失真关键区域并利用对比度计算相应的质量分数;之后对每帧的3个通道的质量分数进行融合,得到每帧的质量分数;最后根据所有帧的质量分数得到失真自由视点视频的质量分数;优点是其能够有效地提高客观评价结果与人眼主观感知的一致性。
-
公开(公告)号:CN106973281A
公开(公告)日:2017-07-21
申请号:CN201710038624.6
申请日:2017-01-19
Applicant: 宁波大学
IPC: H04N13/00 , H04N17/02 , H04N19/124
CPC classification number: H04N13/15 , H04N13/111 , H04N17/02 , H04N19/124
Abstract: 本发明公开了一种虚拟视点视频质量预测方法,其将第1帧彩色图像和第1帧深度图像各自中的各个分割块的均值和方差、第1帧彩色图像和第1帧深度图像各自的梯度图像中的各个分割块的均值、第1帧深度图像与第1帧失真深度图像的深度差值图像中的各个分割块的均值作为训练特征,将第1帧失真深度图像对应的标签图像中的各个分割块的均值作为训练标签,使用SVM对训练特征和训练标签组成的训练样本进行训练,得到SVM回归模型;将其余任一帧相应的均值和方差作为测试特征,利用SVM回归模型进行测试;利用输出的测试值获得失真虚拟视点视频的质量值;优点是考虑了虚拟视点绘制质量的各影响因子,使得在深度视频压缩失真下能有效预测出虚拟视点视频质量。
-
公开(公告)号:CN105208374B
公开(公告)日:2017-03-08
申请号:CN201510523373.1
申请日:2015-08-24
Applicant: 宁波大学
Abstract: 本发明公开了一种基于深度学习的无参考图像质量客观评价方法,其将待评价的失真图像进行多分辨率金字塔和高斯差分分解后,对子带图像做简单的局部归一化就可以提取自然统计特征,不需要到变换域提取特征,从而复杂度大幅降低;本发明方法无需参考图像、无需失真类型,用自然统计特性的丢失程度衡量图像的失真程度;本发明方法能够客观地反映图像受到各种图像处理和压缩方法影响下视觉质量的变化情况,并且本发明方法的评价性能不受图像内容和失真类型的影响,与人眼的主观感知一致;采用现有的L矩估计方法估计灰度直方图的包络曲线的分布参数,估计得到的分布参数更加准确,具有更强的泛化能力。
-
公开(公告)号:CN103391436B
公开(公告)日:2016-06-29
申请号:CN201310294675.7
申请日:2013-07-12
Applicant: 宁波大学
Abstract: 本发明公开了一种基于双目视觉感知的立体视频码率控制方法,特点是过对立体图像组层、立体图像对层、帧层这三个层次分别进行码率控制,在立体图像组层,计算每个立体图像组的目标比特数并计算关键帧的量化参数;在立体图像对层,根据剩余比特数和缓冲区饱和度来计算每个立体图像对的目标比特数;在帧层,根据人眼双目视觉掩蔽效应,建立了立体指数码率与量化参数模型来优化立体率失真模型,使左图像分配较多的目标比特数,而右图像相对分配较少的目标比特数,最终确定非关键帧的量化参数。优点是通过本发明的码率控制方法后有效地提高了立体视频客观质量和率失真性能。
-
公开(公告)号:CN105654465A
公开(公告)日:2016-06-08
申请号:CN201510961830.5
申请日:2015-12-21
Applicant: 宁波大学
CPC classification number: G06T7/0002 , G06T2207/10012 , G06T2207/30168
Abstract: 本发明公开了一种采用视差补偿视点间滤波的立体图像质量评价方法,其通过对立体图像的左、右视点图像进行视差补偿和视点间滤波,得到高频图像和低频图像,在频域完成了对立体图像的立体感知特性的描述,能够更准确地评价立体图像的质量;其对低频图像进行二维小波变换,提取近似系数矩阵、水平细节系数矩阵、垂直细节系数矩阵以及对角线细节系数矩阵来获得部分特征,这些特征能够有效地提高对失真立体图像的质量评价的准确性;其利用支持向量回归的方法构建立体图像的特征向量与图像主观质量之间的映射关系,避免了对于人类视觉系统工作机制的复杂模拟,同时避免了对于训练过程的过度依赖,从而提高了主观质量和客观预测质量之间的相关性。
-
公开(公告)号:CN103338370B
公开(公告)日:2016-06-08
申请号:CN201310225066.6
申请日:2013-06-05
Applicant: 宁波大学
IPC: H04N19/597 , H04N13/00
Abstract: 本发明公开了一种多视点深度视频快速编码方法,其通过提出一个宏块的编码模式复杂度因子,并根据该模式复杂度因子将宏块归分到简单模式区域或复杂模式区域,即将深度视频划分为简单模式区域和复杂模式区域,且针对不同的区域采用不同的快速编码模式选择策略,对简单模式区域中的宏块只选择简单的编码模式搜索,而复杂模式区域中的宏块则进行较复杂的搜索,从而避免了当前的编码帧编码过程中贡献很小但很费时的编码模式搜索,这样在保证虚拟视点绘制质量和不影响深度视频编码码率的前提下,能够有效地降低多视点深度视频编码的计算复杂度,节约多视点深度视频的编码时间。
-
-
-
-
-
-
-
-
-