-
公开(公告)号:CN102769746B
公开(公告)日:2014-12-24
申请号:CN201210223251.7
申请日:2012-06-27
Applicant: 宁波大学
IPC: H04N19/593 , H04N13/00
Abstract: 本发明公开了一种多视点深度视频处理方法,其首先通过对深度视频进行重组变换操作,然后将变换操作后的深度视频在时域上进行平滑处理,再对平滑处理后的深度视频进行重组逆变换操作,得到预处理后的深度视频,对预处理后的多视点深度视频进行编码压缩、解码重建操作,再对解码重建后的多视点深度视频进行深度恢复及空域平滑处理,最后利用处理后的多视点深度视频绘制虚拟视点视频图像,优点在于这种预处理方式能够提高深度视频序列的时域相关性,进而有效提高深度视频的编码效率,在编码QP=22、27、32、37的情况下,可以节省编码码率达到17.07%~38.29%,绘制得到的虚拟视点视频图像的绘制质量可提高约为0.05dB。
-
公开(公告)号:CN102905140B
公开(公告)日:2014-11-05
申请号:CN201210353589.4
申请日:2012-09-21
Applicant: 宁波大学
CPC classification number: G06K9/6212 , G06K9/0014 , G06T5/40 , G06T5/50 , G06T7/90 , G06T2207/10012 , G06T2207/10024 , G06T2207/10056
Abstract: 本发明公开了一种彩色显微立体图像对颜色校正方法,通过将参考图像和颜色待校正的图像中的前景区域和背景区域的颜色信息分开进行颜色传递,这样可以避免图像对中不同区域之间的颜色信息发生错误传递,从而能够极大地提高颜色校正的精度,缩小了参考图像和颜色待校正的图像之间的颜色差异,为彩色显微立体图像对的立体匹配打下了较好的基础,同时也为三维重建和三维测量提供了保证;另一方面,在整个图像颜色校正过程中,不需要使用者的干预,整个颜色校正过程可以自动完成。
-
公开(公告)号:CN103632372A
公开(公告)日:2014-03-12
申请号:CN201310651561.3
申请日:2013-12-05
Applicant: 宁波大学
IPC: G06T7/00
Abstract: 本发明公开了一种视频显著图提取方法,其首先通过对二维视频在时域上、在水平方向及在垂直方向进行采样,分别得到X-Y截面图像、X-T截面图像和Y-T截面图像,然后通过对X-T截面图像和Y-T截面图像进行低秩矩阵分解提取出X-Y截面图像的运动显著图,对X-Y截面图像的特征矢量进行低秩矩阵分解提取出X-Y截面图像的空间显著图,最后对运动显著图和空间显著图进行融合,得到最终的视频显著图,优点是所获得的视频显著图能够较好地反映视频的静态和动态区域的显著变化情况,符合人眼运动显著语义的特征。
-
公开(公告)号:CN103442226A
公开(公告)日:2013-12-11
申请号:CN201310325370.8
申请日:2013-07-30
Applicant: 宁波大学
Abstract: 本发明公开了一种基于双目恰可觉察失真的多视点彩色视频快速编码方法,其首先利用左视点视频和右视点视频的视差信息确定右视点视频中的每帧右视点图像中的非边界区域内的每个宏块的双目恰可觉察失真值,其次根据双目恰可觉察失真值的大小提前终止宏块模式选择,该快速编码方法在不造成率失真性能下降的基础上,能够有效地提高多视点彩色视频的编码效率,节约的编码时间可达66.48%到71.90%,平均节约编码时间68.46%。
-
公开(公告)号:CN103354617A
公开(公告)日:2013-10-16
申请号:CN201310278405.7
申请日:2013-07-03
Applicant: 宁波大学
Abstract: 本发明公开了一种基于DCT域的边缘强度压缩的图像质量客观评价方法,其首先通过分别获取无失真图像和失真图像的亮度分量图的4个方向的系数矩阵,获取无失真图像和失真图像的亮度分量图的全局边缘强度,其次通过获取两个全局边缘强度中的每个8×8的半重叠块的均值、标准差和方差,获取失真图像中相对应的每个区域的敏感因子,接着通过获取两个全局边缘强度中的每个半重叠块的DCT系数矩阵,获取两个全局边缘强度中相对应的两个半重叠块的能量相似性,最后根据敏感因子及能量相似性,获取失真图像的质量评价分数,由于本方法充分去除了人眼的视觉冗余信息,有效利用了人眼比较敏感的边缘强度,因此得到的客观评价结果与人眼主观感知能够保持很好的一致性。
-
公开(公告)号:CN103347196A
公开(公告)日:2013-10-09
申请号:CN201310264956.8
申请日:2013-06-27
Applicant: 宁波大学
Abstract: 本发明公开了一种基于机器学习的立体图像视觉舒适度评价方法,其首先通过右视点图像的显著图和右视差图像提取出立体图像的视觉重要区域掩膜,然后利用视觉重要区域掩膜提取出用于反映视差幅度特征、视差梯度特征的特征矢量及用于反映空间频率特征的特征矢量,得到立体图像的特征矢量,再利用支持向量回归对立体图像集合中的所有立体图像的特征矢量进行训练,最后利用训练得到的支持向量回归训练模型对立体图像集合中的每幅立体图像进行测试,得到每幅立体图像的视觉舒适度评价预测值,优点是获得的立体图像的特征矢量信息具有较强的稳定性且能够较好地反映立体图像的视觉舒适度变化情况,从而有效地提高了客观评价情况与主观感知的相关性。
-
公开(公告)号:CN102905140A
公开(公告)日:2013-01-30
申请号:CN201210353589.4
申请日:2012-09-21
Applicant: 宁波大学
CPC classification number: G06K9/6212 , G06K9/0014 , G06T5/40 , G06T5/50 , G06T7/90 , G06T2207/10012 , G06T2207/10024 , G06T2207/10056
Abstract: 本发明公开了一种彩色显微立体图像对颜色校正方法,通过将参考图像和颜色待校正的图像中的前景区域和背景区域的颜色信息分开进行颜色传递,这样可以避免图像对中不同区域之间的颜色信息发生错误传递,从而能够极大地提高颜色校正的精度,缩小了参考图像和颜色待校正的图像之间的颜色差异,为彩色显微立体图像对的立体匹配打下了较好的基础,同时也为三维重建和三维测量提供了保证;另一方面,在整个图像颜色校正过程中,不需要使用者的干预,整个颜色校正过程可以自动完成。
-
公开(公告)号:CN102788682A
公开(公告)日:2012-11-21
申请号:CN201210260520.7
申请日:2012-07-25
Applicant: 宁波大学
IPC: G01M11/02
CPC classification number: G01M11/02 , G01M11/0264 , G01M11/0292 , G02B21/241
Abstract: 本发明公开了一种连续变倍体视显微镜齐焦性检测方法,其通过利用四个清晰度判定函数来联合获取多帧图像对应的四个最大清晰度值,然后利用四个最大清晰度值来确定相对最清晰位置,再通过比较相对最清晰位置下的清晰度值与合焦位置下的清晰度值,判定相对最清晰位置是否为合焦位置,接着通过调整倍率,获得有限个离散倍率下的合焦位置,最后通过拟合得到连续倍率下的齐焦曲线,本发明方法能够自动有效实现体视显微镜的齐焦性检测,且检测精度高,并可有效提高生产效率;此外,本发明方法无需使用者经常干预调整,具有较强的鲁棒性,对绝大多数体视显微镜的齐焦性检测都适用,如果跟自动化装置配合,可大幅度提高生产效率。
-
公开(公告)号:CN102158712B
公开(公告)日:2012-10-24
申请号:CN201110069318.1
申请日:2011-03-22
Applicant: 宁波大学
Abstract: 本发明公开了一种基于视觉的多视点视频信号编码方法,通过建立被编码的视频图像的视觉显著性图对视频图像感兴趣区域进行划分,在其后的编码过程中,在人眼比较感兴趣的区域采用较小的编码量化参数,而在人眼不太感兴趣的区域采用较大的编码量化参数。虽然本发明在人眼关注度比较低的区域分配较少的码率,但这些区域由于编码所造成的失真不会或很少引起人眼的察觉,因而对图像整体质量的影响并不明显,而与此同时却极大地节省了码率;而在人眼关注度比较高的区域分配较多的码率,可以提高解码图像的整体主观视觉质量,从而提高多视点视频信号编码效率。
-
公开(公告)号:CN102663747A
公开(公告)日:2012-09-12
申请号:CN201210081617.1
申请日:2012-03-23
Applicant: 宁波大学
IPC: G06T7/00
Abstract: 本发明公开了一种基于视觉感知的立体图像客观质量评价方法,其从左右视点图像质量和深度感知两部分出发,左右视点图像质量对多尺度上的结构信息进行捕捉,有效地反映原始和失真立体图像对的结构相似度的差异,而立体深度感主要是由于人的左右眼看到的图像存在细微的差异造成的,故通过比较原始和失真绝对差值图的亮度失真、结构失真及灵敏度失真获得深度感知评价值,然后对这两部分的评价值进行非线性拟合得到最终的立体图像质量评价指标,由于本方法融入了立体图像特有的深度感特性和图像质量损失特性的客观评价模型结果既能反映立体图像的质量又能反映深度感,因此评价结果可以客观地反映立体图像处理或压缩算法对立体图像质量变化的影响。
-
-
-
-
-
-
-
-
-