-
公开(公告)号:CN115830406A
公开(公告)日:2023-03-21
申请号:CN202111078555.4
申请日:2021-09-15
Applicant: 南京大学
IPC: G06V10/774 , G06V10/764 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/08 , G06T7/55
Abstract: 本发明公开了一种基于多视差尺度的快速光场深度估计方法。具体步骤为:(1)构造数据库;(2)将光场图像输入神经网络,神经网络提取出特征向量,同时与边缘增强模块交互进行边缘特性增强,并根据得到的特征向量构建不同视差尺度的匹配代价,通过代价聚合模块进行匹配代价正则化,最终通过视差回归得到光场视差图;(3)构建神经网络的损失函数,该损失函数包括绝对值损失函数和加权二分类交叉熵损失函数;(4)根据光场相机参数,得到相邻光场图像对应的相机焦距与基线长度,进而根据光场视差图,转换成光场深度图;(5)将测试集的光场图像输入已训练的神经网络中,得到光场深度图。本发明的方法可以通过光场图像直接求出其精确的深度图。
-
公开(公告)号:CN115471397A
公开(公告)日:2022-12-13
申请号:CN202210824492.0
申请日:2022-07-14
Applicant: 南京大学
Abstract: 本发明公开了一种基于视差估计的多模态图像配准方法。具体步骤为:(1)搭建阵列成像系统;(2)构造数据集;(3)将图像输入神经网络,采用双支路策略,提取共有特征与特有特征;(4)利用通道注意力增强模块进行特征增强,构建基于视差的匹配代价,通过视差回归得到视差图;(5)利用所求得视差图,通过单应性扭曲进行图像对齐,实现多模态图像的配准融合;(6)构建损失函数,包括平均绝对损失函数和最小二乘生成对抗损失函数;(7)将测试集的图像输入神经网络,得到风格生成图、预测视差图和对齐融合后的多模态图。本发明的方法可以通过不同视角的多模态图像得到视差图,进而求得配准融合后的多模态图像。
-