-
公开(公告)号:CN115063463A
公开(公告)日:2022-09-16
申请号:CN202210698689.4
申请日:2022-06-20
Applicant: 东南大学
Abstract: 本发明公开了一种基于无监督学习的鱼眼相机场景深度估计方法,该方法首先建立生成对抗网络架构,对输入的鱼眼图像进行畸变校正处理;然后建立场景深度估计网络架构,对图像进行深度特征和位姿特征的提取;接着使用场景深度图信息和相机位姿信息重构图像,设计损失函数训练模型,优化网络参数;最终使用训练好的网络进行深度估计,得到图像的场景深度图。该方法使用鱼眼相机,具有观测范围广的特点;所采用的无监督学习方法,具有训练方便、感知结果准确的特点,能够满足场景深度估计的需求。
-
公开(公告)号:CN115063463B
公开(公告)日:2024-11-12
申请号:CN202210698689.4
申请日:2022-06-20
Applicant: 东南大学
IPC: G06T7/50 , G06T7/73 , G06T5/50 , G06T5/80 , G06N3/0464 , G06N3/08 , G06N3/045 , G06N3/0475 , G06N3/094
Abstract: 本发明公开了一种基于无监督学习的鱼眼相机场景深度估计方法,该方法首先建立生成对抗网络架构,对输入的鱼眼图像进行畸变校正处理;然后建立场景深度估计网络架构,对图像进行深度特征和位姿特征的提取;接着使用场景深度图信息和相机位姿信息重构图像,设计损失函数训练模型,优化网络参数;最终使用训练好的网络进行深度估计,得到图像的场景深度图。该方法使用鱼眼相机,具有观测范围广的特点;所采用的无监督学习方法,具有训练方便、感知结果准确的特点,能够满足场景深度估计的需求。
-