-
公开(公告)号:CN112785637B
公开(公告)日:2022-10-11
申请号:CN202110077541.4
申请日:2021-01-20
Applicant: 大连理工大学
Abstract: 本发明公开了一种基于动态融合网络的光场深度估计方法,包括以下步骤:确定光场数据集,基于光场数据集确定训练集和测试集;扩充光场数据集;搭建动态融合网络模型;动态融合网络模型由双流网络和一个多模态动态融合模块构成;双流网络由RGB流和焦点堆栈流组成;将双流网络的输出全局RGB特征和焦点特征作为多模态动态融合模块的输入,输出最终深度图;基于训练集训练构建的动态融合网络模型;在所述测试集上测试训练好的动态融合网络模型,并在手机数据集上进行验证。本发明的光场深度估计方法可以获得优于其它光场深度估计方法的精度,减小噪声,保留更多细节信息,且打破了光场相机的限制,成功地应用于普通消费级相机数据。
-
公开(公告)号:CN112767466B
公开(公告)日:2022-10-11
申请号:CN202110075849.5
申请日:2021-01-20
Applicant: 大连理工大学
Abstract: 本发明公开了一种基于多模态信息的光场深度估计方法,包括:使用基于微透镜阵列的光场相机采集光场图像数据,得到四维光场图像阵列,提取其中最中心的一个视角图像作为中心视图,并导出一组焦点切片作为焦点堆栈,进行数据扩容;构建卷积神经网络,将焦点堆栈和对应中心视图作为网络模型的输入,得到焦点堆栈流的输入张量和中心视图流的输入张量;训练构建的卷积神经网络;利用训练好的神经网络在光场测试集上进行测试,并在手机采集的实际聚焦切片上进行验证。本发明提供的光场深度估计方法能够充分利用光场多模态信息,在光场数据集上实现更加准确的深度估计;获得的深度信息更加完整、边缘更加清晰;可实现于普通消费级手机端的实际应用。
-
公开(公告)号:CN112785637A
公开(公告)日:2021-05-11
申请号:CN202110077541.4
申请日:2021-01-20
Applicant: 大连理工大学
Abstract: 本发明公开了一种基于动态融合网络的光场深度估计方法,包括以下步骤:确定光场数据集,基于光场数据集确定训练集和测试集;扩充光场数据集;搭建动态融合网络模型;动态融合网络模型由双流网络和一个多模态动态融合模块构成;双流网络由RGB流和焦点堆栈流组成;将双流网络的输出全局RGB特征和焦点特征作为多模态动态融合模块的输入,输出最终深度图;基于训练集训练构建的动态融合网络模型;在所述测试集上测试训练好的动态融合网络模型,并在手机数据集上进行验证。本发明的光场深度估计方法可以获得优于其它光场深度估计方法的精度,减小噪声,保留更多细节信息,且打破了光场相机的限制,成功地应用于普通消费级相机数据。
-
-