结合JND模型的交叉验证深度图质量评价方法

    公开(公告)号:CN106803952B

    公开(公告)日:2018-09-14

    申请号:CN201710041375.6

    申请日:2017-01-20

    Applicant: 宁波大学

    Abstract: 本发明公开了一种结合JND模型的交叉验证深度图质量评价方法,其利用深度图对应的彩色图和辅助视点上的彩色图来获得差值图;利用深度图及与其对应的彩色图经3D‑Warping映射到辅助视点上的彩色图中每个坐标处的像素个数来获取遮挡掩膜;然后利用遮挡掩膜去除差值图中被遮挡的像素点得到去遮挡后的差值图;接着将辅助视点上的彩色图划分为平坦、边缘和纹理三个区域获得区域标记图;之后引入JND模型,结合区域标记图,获取辅助视点上的彩色图中的每个像素点的误差可视阈值;最后根据去遮挡后的差值图和误差可视阈值,获得深度误差图,进而获得深度图中的错误像素点的比率作为质量评价值;优点是其能有效地提高评价结果与绘制得到的虚拟视点的质量之间的一致性。

    基于稀疏失真模型表示的深度图像空洞修复和去噪方法

    公开(公告)号:CN105608678B

    公开(公告)日:2018-03-27

    申请号:CN201610014989.0

    申请日:2016-01-11

    Applicant: 宁波大学

    Abstract: 本发明公开了一种基于稀疏失真模型表示的深度图像空洞修复和去噪方法,其先利用K‑SVD字典学习模型获取训练样本矩阵的过完备字典;然后利用K‑SVD字典学习模型获取待处理的失真深度图像的过完备字典,再根据待处理的失真深度图像的矩阵表示及对应的过完备字典,并利用正交匹配跟踪模型,得到对应的稀疏系数向量;接着通过获取待处理的失真深度图像的非空洞区域的最终去噪矩阵,获取空洞掩膜矩阵;之后根据训练样本矩阵的过完备字典和测试样本矩阵,并利用正交匹配跟踪模型,得到对应的稀疏系数向量;最后根据训练样本矩阵的过完备字典及对应的稀疏系数向量和空洞掩膜矩阵,得到重构深度图像;优点是降低了深度图像出现的空洞和噪声对深度图像质量的影响。

    一种3D-HEVC深度视频帧内快速编码方法

    公开(公告)号:CN105430415B

    公开(公告)日:2018-02-27

    申请号:CN201510873417.3

    申请日:2015-12-02

    Applicant: 宁波大学

    Abstract: 本发明公开了一种3D‑HEVC深度视频帧内快速编码方法,其在编码之前先对深度视频帧进行了平滑处理即预处理,降低了空域复杂度,提高了编码性能及虚拟视点质量;由于预处理后的深度视频帧更加平滑,更多的最大编码单元的最大划分深度集中在0和1,因此使用BP神经网络主动学习并预测最大编码单元的最大划分深度,再通过对应的彩色视频帧中的最大编码单元的最大划分深度及深度视频帧中的编码单元的边缘纹理信息赋值修正预测的最大划分深度,提前终止编码单元的划分,同时根据每层的编码单元的预测模式的统计结果及预测的最大编码单元的最大划分深度提前决定每层编码单元的预测模式的执行范围,最终在提高编码率失真性能的同时,大幅降低了编码复杂度。

    一种立体视频B帧整帧丢失错误隐藏方法

    公开(公告)号:CN104602028B

    公开(公告)日:2017-09-29

    申请号:CN201510024178.4

    申请日:2015-01-19

    Applicant: 宁波大学

    Abstract: 本发明公开了一种立体视频B帧整帧丢失错误隐藏方法,其根据丢失帧在时域上的前向参考帧与后向参考帧之间的时域相关性,将丢失帧中的每个图像块判定为属于缓慢静止区域或剧烈运动区域,对于属于缓慢静止区域的图像块,由于其时间相关性比较强,因此直接采用时域双向帧拷贝错误隐藏方法对图像块进行错误隐藏;对于属于剧烈运动区域的图像块,计算图像块的时域最优运动矢量,根据图像块的时域最优运动矢量对应的失真值的大小选择合适的时域候选信息和视点域候选信息进行错误隐藏,由于充分利用了丢失帧周围相邻帧的有效信息,采用失真值度量的方法进行有效的选择,使得最终恢复图像的视觉效果(即主观质量)和客观质量得到了大幅度的提升。

    一种基于区域的图像显著图提取方法

    公开(公告)号:CN103632153B

    公开(公告)日:2017-01-11

    申请号:CN201310651864.5

    申请日:2013-12-05

    Applicant: 宁波大学

    Abstract: 本发明公开了一种基于区域的图像显著图提取方法,其首先通过计算图像的全局颜色直方图,得到基于全局颜色直方图的图像显著图,然后采用超像素分割技术对图像进行分割,分别计算各个区域的颜色对比度和空间稀疏性,并利用区域之间的相似性进行加权,得到基于区域颜色对比度的图像显著图和基于区域空间稀疏性的图像显著图,最后对基于全局颜色直方图的图像显著图、基于区域颜色对比度的图像显著图和基于区域空间稀疏性的图像显著图进行融合,得到最终的图像显著图,优点是获得的图像显著图能够较好地反映全局和局部区域的显著变化情况,符合图像显著语义的特征。

    一种HEVC快速编码方法
    46.
    发明授权

    公开(公告)号:CN103533355B

    公开(公告)日:2016-08-17

    申请号:CN201310470508.3

    申请日:2013-10-10

    Applicant: 宁波大学

    Abstract: 本发明公开了一种HEVC快速编码方法,其通过对预测最大编码单元进行四叉树结构类型分析,快速获取表示当前的最大编码单元的深度遍历区间的类型值,在获取该类型值的过程中由于当前的最大编码单元与相邻已编码的最大编码单元以及前向参考帧和后向参考帧中坐标位置相同的最大编码单元之间具有很大的相关性,因此利用预测最大编码单元的深度遍历区间的类型值来获取当前的最大编码单元的深度遍历区间的类型值,从而避免了当前的最大编码单元分割过程中许多不必要的深度遍历,在保证视频质量和码率不变的前提下,有效地降低了编码的计算复杂度。

    一种基于结构相似度的立体视频整帧丢失错误隐藏方法

    公开(公告)号:CN103167291B

    公开(公告)日:2016-04-27

    申请号:CN201310074764.0

    申请日:2013-03-08

    Applicant: 宁波大学

    Abstract: 本发明公开了一种基于结构相似度的立体视频整帧丢失错误隐藏方法,其有效结合了人眼对图像结构信息的主观感知,通过判断丢失帧前一时刻参考图像帧的宏块参考模式,针对丢失帧中不同宏块参考模式的宏块,分别采用运动补偿预测方法或者视差补偿预测方法进行错误恢复,由于充分考虑了传统立体视频的时域相关性和视点间相关性,还重点结合了人眼对图像结构相似度的主观感知,因此不仅能够提高丢失帧恢复的客观质量,而且还能使得丢失帧恢复的主观质量更接近于人眼感知。

    一种基于联合恰可觉察失真的立体图像脆弱水印方法

    公开(公告)号:CN103325084B

    公开(公告)日:2016-03-16

    申请号:CN201310270391.4

    申请日:2013-06-27

    Applicant: 宁波大学

    Abstract: 本发明公开了一种基于JJND(Joint Just Noticeable distortion)的立体图像篡改定位及恢复的脆弱水印算法。首先根据JJND模型及立体图像匹配块个数将立体图像块分为相对敏感和相对不敏感块;然后对图像块进行离散余弦变换和量化压缩生成恢复水印;根据JJND模型及图像块类型,建立立体图像不同类型块的非对称水印嵌入。恢复水印也用于定位篡改区域的位置,进一步提高了图像的透明性。同时立体图像中恢复水印的拷贝嵌入,提高水印恢复篡改信息的能力。实验结果表明:本方法对篡改位置的定位精度较精确,并且对篡改区域有较高的恢复能力。

    一种自由视点视频整帧丢失错误隐藏方法

    公开(公告)号:CN103024402B

    公开(公告)日:2015-10-28

    申请号:CN201210504764.5

    申请日:2012-11-29

    Applicant: 宁波大学

    Abstract: 本发明公开了一种自由视点视频整帧丢失错误隐藏方法,其根据编码预测结构的预测关系,充分利用丢失帧时间域上的前向参考彩色图像和后向参考彩色图像对丢失帧中的每个图像块进行双向运动补偿恢复,并针对自由视频系统存在多个视点,充分利用丢失帧视点域上的左向参考彩色图像和右向参考彩色图像对丢失帧中的每个图像块的双向视差补偿恢复,再根据双向运动补偿恢复结果和双向视差补偿恢复结果得到最终的恢复帧,这种恢复方式大大提高了错误隐藏后图像视频的重建质量;另一方面,对丢失帧不仅进行了时域的双向恢复,而且还进行了视点间的双向恢复,双向的视点间的参考信息增加了丢失帧恢复的冗余信息,对自由视点视频重建质量有很大的提高。

    一种基于双目恰可觉察失真的立体图像半脆弱水印方法

    公开(公告)号:CN103024375B

    公开(公告)日:2015-08-05

    申请号:CN201210461409.4

    申请日:2012-11-15

    Applicant: 宁波大学

    Abstract: 本发明公开了一种基于双目恰可觉察失真的立体图像半脆弱水印方法,首先提取左右图像的定位水印;然后根据左图像双目恰可觉察失真值确定定位水印在左图像的嵌入比特位置,进而将左右图像的定位水印分层嵌入左图像;最后利用离散余弦变换和JPEG量化压缩将右图像恢复信息嵌入到右图像,而对于左图像,则将遮挡暴露区域压缩后的恢复信息嵌入到左图像,优点是本方法充分利用了左右图像的匹配特性,使得篡改的立体图像恢复的质量得到了进一步的提高,实验结果表明,本方法不仅能够准确地实现篡改区域的定位,而且能根据左右图像的关系及恢复信息对篡改区域的内容进行恢复。

Patent Agency Ranking