基于方向和尺度自适应卷积神经网络的光场深度估计方法

    公开(公告)号:CN108846473B

    公开(公告)日:2022-03-01

    申请号:CN201810317425.3

    申请日:2018-04-10

    Abstract: 本发明公开了一种基于方向和尺度自适应卷积神经网络的光场深度估计方法。本发明包括如下步骤:步骤1.准备光场数据集,制作训练集和测试集;步骤2.搭建方向和尺度自适应的卷积神经网络SOA‑EPN;步骤3.使用训练集训练搭建好的SOA‑EPN网络;步骤4.使用练好的SOA‑EPN网络在测试集上进行测试;本发明借助于尺度和方向感知卷积神经网络来预测光场深度,不仅利用了多方向,而且很好的处理了遮挡等问题,得到准确的深度估计结果。

    基于方向和尺度自适应卷积神经网络的光场深度估计方法

    公开(公告)号:CN108846473A

    公开(公告)日:2018-11-20

    申请号:CN201810317425.3

    申请日:2018-04-10

    Abstract: 本发明公开了一种基于方向和尺度自适应卷积神经网络的光场深度估计方法。本发明包括如下步骤:步骤1.准备光场数据集,制作训练集和测试集;步骤2.搭建方向和尺度自适应的卷积神经网络SOA-EPN;步骤3.使用训练集训练搭建好的SOA-EPN网络;步骤4.使用练好的SOA-EPN网络在测试集上进行测试;本发明借助于尺度和方向感知卷积神经网络来预测光场深度,不仅利用了多方向,而且很好的处理了遮挡等问题,得到准确的深度估计结果。

    一种基于遮挡几何互补模型的光场相机深度估计方法

    公开(公告)号:CN106651943B

    公开(公告)日:2019-07-23

    申请号:CN201611262452.2

    申请日:2016-12-30

    Abstract: 本发明公开了一种基于遮挡几何互补模型的光场相机深度估计方法。本发明利用光场光流理论得到光场图像多个视角的遮挡信息,再利用了相对的两个视角中,所看到遮挡区域具有互补关系的性质,通过求两个视角的遮挡信息,对两部分信息进行融合,从而实现精确的光场图像深度估计。本发明能够对具有丰富纹理变化的区域实现很好的遮挡结果,并且得到精确的深度图。

    一种基于遮挡几何互补模型的光场相机深度估计方法

    公开(公告)号:CN106651943A

    公开(公告)日:2017-05-10

    申请号:CN201611262452.2

    申请日:2016-12-30

    Abstract: 本发明公开了一种基于遮挡几何互补模型的光场相机深度估计方法。本发明利用光场光流理论得到光场图像多个视角的遮挡信息,再利用了相对的两个视角中,所看到遮挡区域具有互补关系的性质,通过求两个视角的遮挡信息,对两部分信息进行融合,从而实现精确的光场图像深度估计。本发明能够对具有丰富纹理变化的区域实现很好的遮挡结果,并且得到精确的深度图。

Patent Agency Ranking