一种基于遮挡几何互补模型的光场相机深度估计方法

    公开(公告)号:CN106651943B

    公开(公告)日:2019-07-23

    申请号:CN201611262452.2

    申请日:2016-12-30

    Abstract: 本发明公开了一种基于遮挡几何互补模型的光场相机深度估计方法。本发明利用光场光流理论得到光场图像多个视角的遮挡信息,再利用了相对的两个视角中,所看到遮挡区域具有互补关系的性质,通过求两个视角的遮挡信息,对两部分信息进行融合,从而实现精确的光场图像深度估计。本发明能够对具有丰富纹理变化的区域实现很好的遮挡结果,并且得到精确的深度图。

    基于深度学习的3D-HEVC深度图编码单元快速决策方法

    公开(公告)号:CN109714584A

    公开(公告)日:2019-05-03

    申请号:CN201910026936.4

    申请日:2019-01-11

    Abstract: 本发明公开了一种基于深度学习的3D-HEVC深度图编码单元尺寸快速决策方法。本发明首先利用官方传统方法,先统计测试序列前10帧的深度图编码单元的分割情况来建立数据库,再通过深度学习对这些数据集来进行训练,从而产生一个模型。最后利用该模型来判断测试序列完整帧的深度图编码单元是否需要继续分割。深度学习可以发现数据的分布式特征表示,利用深度学习训练出来的网络具有很强的判知能力,所以利用深度学习可以预知深度图编码单元是否需要继续分割。本发明可以降低编码过程中的计算复杂度,缩短编码时间,在视频重建上也有良好的效果。

    一种基于眼动注视点移动轨迹的感兴趣点数据库建立方法

    公开(公告)号:CN108415955A

    公开(公告)日:2018-08-17

    申请号:CN201810116386.0

    申请日:2018-02-06

    Abstract: 本发明公开了一种基于眼动注视点移动轨迹的感兴趣点数据库建立方法。本方法将三维模型利用投影技术投影成二维图片,并将图片做成视频,放置于眼动仪让志愿者观看,进而收集眼动注视点的数据,然后将视频按帧分割,提取图片中的眼动注视点,借助二维到三维的映射技术得到眼动注视点点在三维模型上的坐标点。最后使用建立Ground Truth的算法将得到的眼动注视点数据建立成感兴趣点数据库。本发明更加适用于对模型的重建,因为利用眼动仪可以将模型上人眼最关注区域的部分和不关注区域的部分进行划分。通过感兴趣点标准库对人类感兴趣的地方可以加强重建的精度,相反对于不感兴趣的区域相对减少重建精度,从而减少模型重建的工作量和存储量。

    一种基于遮挡几何互补模型的光场相机深度估计方法

    公开(公告)号:CN106651943A

    公开(公告)日:2017-05-10

    申请号:CN201611262452.2

    申请日:2016-12-30

    Abstract: 本发明公开了一种基于遮挡几何互补模型的光场相机深度估计方法。本发明利用光场光流理论得到光场图像多个视角的遮挡信息,再利用了相对的两个视角中,所看到遮挡区域具有互补关系的性质,通过求两个视角的遮挡信息,对两部分信息进行融合,从而实现精确的光场图像深度估计。本发明能够对具有丰富纹理变化的区域实现很好的遮挡结果,并且得到精确的深度图。

    一种面向视觉显著性检测的中央周围环绕优化方法

    公开(公告)号:CN103093454B

    公开(公告)日:2015-04-22

    申请号:CN201210560401.3

    申请日:2012-12-20

    Abstract: 本发明涉及一种面向视觉显著性检测的中央-周围环绕优化方法。本发明方法首先提取输入图像的显著基元,得到三个彩色分量。其次每个显著基元的颜色独特性值并计算空间紧凑性值。然后依据颜色独特性值和空间紧凑性值计算每个显著基元的合成显著性值。最后结合感受野区域采用一种简化中央-周围环绕算子计算每个显著基元的最终显著性值。本发明采用线性加权函数对目前生物视觉感受野的两种模型进行拟合和简化,实现两种感受野模型的统一建模。

    一种融合区域颜色和HoG特征的视觉显著性检测方法

    公开(公告)号:CN102867313B

    公开(公告)日:2015-04-22

    申请号:CN201210311804.4

    申请日:2012-08-29

    Abstract: 本发明涉及一种融合区域颜色和HoG特征的视觉显著性检测方法。目前方法通常都基于区域颜色特征的纯计算模型,对于纹理的显著性差异不敏感。本发明方法首先在原始图像的CIELAB空间彩色分量图上,通过分析超像素区域的颜色对比度和分布特性,计算每个像素的颜色显著性值;然后在原始图像的RGB空间彩色分量图上,提取基于HoG的局部矩形区域纹理特征,并通过分析局部矩形区域的纹理对比度和分布特性,计算每个像素的纹理显著性值;最后采用二次非线性融合方法将每个像素的颜色显著性值和纹理显著性值融合为该像素的最终显著性值。本发明方法获得不仅可获得符合人眼视觉感官的全分辨率显著性图像,并且对显著性目标具有更强的区分能力。

    一种面向视觉显著性检测的中央周围环绕优化方法

    公开(公告)号:CN103093454A

    公开(公告)日:2013-05-08

    申请号:CN201210560401.3

    申请日:2012-12-20

    Abstract: 本发明涉及一种面向视觉显著性检测的中央-周围环绕优化方法。本发明方法首先提取输入图像的显著基元,得到三个彩色分量。其次每个显著基元的颜色独特性值并计算空间紧凑性值。然后依据颜色独特性值和空间紧凑性值计算每个显著基元的合成显著性值。最后结合感受野区域采用一种简化中央-周围环绕算子计算每个显著基元的最终显著性值。本发明采用线性加权函数对目前生物视觉感受野的两种模型进行拟合和简化,实现两种感受野模型的统一建模。

    一种模拟视网膜滤波的视觉显著性检测方法

    公开(公告)号:CN103065298A

    公开(公告)日:2013-04-24

    申请号:CN201210560879.6

    申请日:2012-12-20

    Abstract: 本发明涉及一种模拟视网膜滤波的视觉显著性检测方法。本发明通过在CIELAB对色通道上建立高斯尺度空间,提取多尺度显著基元,然后在每个尺度层上计算具有对数响应特性的显著基元颜色独特性值和空间紧凑性,并采用一种基于显著基元按颜色独特性值重组的简化中央-周围算子进行优化滤波。最后经多尺度合成后生成最终显著图。本发明整合了生物视网膜中的多尺度、对数响应和中央-周围环绕特性,以及纯计算方法中的局部对比度和全局对比度特性。可获得更完整且更均匀高亮的显著性目标区域。

    一种边缘保持的自然场景图像自适应加权滤波方法

    公开(公告)号:CN102222328B

    公开(公告)日:2012-10-03

    申请号:CN201110182918.9

    申请日:2011-07-01

    Abstract: 本发明涉及一种边缘保持的自然场景图像自适应加权滤波方法。本发明方法首先根据高斯滤波器的标准差,计算高斯模板,采用暗通道先验方法,获取原始图像中的深度线索,并归一化,生成深度先验图像。其次计算高斯模板上每个坐标点的空间近邻性权值和计算原始图像上两像素点间的亮度/颜色相似性权值。然后计算原始图像上两像素点间的深度差异性权值和计算模板中心对应于该像素点的自适应加权滤波模板,最后对原始图像中每个像素点,计算其自适应加权滤波结果。本发明方法不仅在亮度/颜色相似性权值计算中考虑了人眼对亮度差异比色彩差异的敏感度不同这一特性,使得该方法符合生物模型。

Patent Agency Ranking