一种基于纹理的深度图像边界修正方法

    公开(公告)号:CN105678765B

    公开(公告)日:2019-06-28

    申请号:CN201610007975.6

    申请日:2016-01-07

    Abstract: 本发明涉及一种基于纹理的深度图像边界修正方法,包括如下步骤:A1、输入深度传感器(如Kinect)采集的纹理图像与对应深度图像;A2、分别提取纹理图像边界与深度图像边界,以纹理图像边界为基准获取深度边界错位图;A3、计算准确深度点(好点)与误差深度点(坏点)的像素差值,确定边界错位区域;A4、根据错位区域分布特征,自适应地确定方形窗口边长进行深度增强处理,修正窗口内坏点深度,消除边界错位区域。利用本发明能够显著提高类似Kinect等低端深度传感器采集的深度图像边缘的准确性和时域稳定性,应用于三维重建、自由视点视频编码等领域,能有效提升场景三维重建质量和编码效率。

    一种基于纹理的深度边界修正方法

    公开(公告)号:CN105678765A

    公开(公告)日:2016-06-15

    申请号:CN201610007975.6

    申请日:2016-01-07

    CPC classification number: G06T2207/10028

    Abstract: 本发明涉及一种基于纹理的深度边界修正方法,包括如下步骤:A1、输入深度传感器(如Kinect)采集的纹理图像与对应深度图像;A2、分别提取纹理图像边界与深度图像边界,以纹理边界为基准获取深度边界错位图;A3、计算准确深度点(好点)与误差深度点(坏点)的像素差值,确定边界错位区域;A4、根据错位区域分布特征,自适应地确定方形窗口边长进行深度增强处理,修正窗口内坏点深度,消除边界错位区域。利用本发明能够显著提高类似Kinect等低端深度传感器采集的深度图像边缘的准确性和时域稳定性,应用于三维重建、自由视点视频编码等领域,能有效提升场景三维重建质量和编码效率。

    基于光场数据分布的深度估计方法

    公开(公告)号:CN104899870B

    公开(公告)日:2017-08-25

    申请号:CN201510251234.8

    申请日:2015-05-15

    Abstract: 一种基于光场数据分布的深度估计方法,其包括以下步骤:S1、调整输入光场图像的像素分布,生成多个不同焦距的重聚焦光场图像;S2、针对所述多个重聚焦光场图像,分别提取同一个宏像素的强度范围,进而选出最小强度范围对应的重聚焦光场图像,以该重聚焦光场图像的焦距作为该宏像素的场景深度;所述宏像素对应实际场景中的一点,所述宏像素的强度范围为该宏像素内所有点的强度值的变化范围;以及重复所述步骤S2,获得所有宏像素的场景深度。利用本发明的方法能够充分借助类似Lytro等光场相机采集的场景纹理及空间信息,获得细节丰富,特征清晰,准确性、一致性高的场景深度估计。

    一种基于纹理分布特征的深度增强方法

    公开(公告)号:CN103413276A

    公开(公告)日:2013-11-27

    申请号:CN201310342872.1

    申请日:2013-08-07

    Abstract: 一种基于纹理分布特征的深度增强方法,包括,A1:输入低端深度传感器采集的时域上相邻各帧的纹理图像与对应深度图像,帧数为N,N≥2;A2:提取各帧纹理图像边界,将深度图像划分为不含纹理边界的非边界区域与含纹理边界的边界区域;A3:对深度图像的边界区域,根据时域上相邻各帧边界区域内纹理边界两侧像素深度值的分布特征选择性修改像素点深度以进行深度增强,并当判断需要时对该边界区域进行滤波降噪处理;A4:对深度图像的非边界区域,利用时域各帧纹理块匹配结果获取当前深度块的时域预测块,根据预测块的像素信息修补当前深度块,并进行滤波降噪处理。利用本发明能够显著提高低端深度传感器采集的深度图像的准确性和时域一致性。

    一种基于纹理分布特征的深度增强方法

    公开(公告)号:CN103413276B

    公开(公告)日:2015-11-25

    申请号:CN201310342872.1

    申请日:2013-08-07

    Abstract: 一种基于纹理分布特征的深度增强方法,包括,A1:输入低端深度传感器采集的时域上相邻各帧的纹理图像与对应深度图像,帧数为N,N≥2;A2:提取各帧纹理图像边界,将深度图像划分为不含纹理边界的非边界区域与含纹理边界的边界区域;A3:对深度图像的边界区域,根据时域上相邻各帧边界区域内纹理边界两侧像素深度值的分布特征选择性修改像素点深度以进行深度增强,并当判断需要时对该边界区域进行滤波降噪处理;A4:对深度图像的非边界区域,利用时域各帧纹理块匹配结果获取当前深度块的时域预测块,根据预测块的像素信息修补当前深度块,并进行滤波降噪处理。利用本发明能够显著提高低端深度传感器采集的深度图像的准确性和时域一致性。

    基于光场数据分布的深度估计方法

    公开(公告)号:CN104899870A

    公开(公告)日:2015-09-09

    申请号:CN201510251234.8

    申请日:2015-05-15

    Abstract: 一种基于光场数据分布的深度估计方法,其包括以下步骤:S1、调整输入光场图像的像素分布,生成多个不同焦距的重聚焦光场图像;S2、针对所述多个重聚焦光场图像,分别提取同一个宏像素的强度范围,进而选出最小强度范围对应的重聚焦光场图像,以该重聚焦光场图像的焦距作为该宏像素的场景深度;所述宏像素对应实际场景中的一点,所述宏像素的强度范围为该宏像素内所有点的强度值的变化范围;以及重复所述步骤S2,获得所有宏像素的场景深度。利用本发明的方法能够充分借助类似Lytro等光场相机采集的场景纹理及空间信息,获得细节丰富,特征清晰,准确性、一致性高的场景深度估计。

Patent Agency Ranking