-
公开(公告)号:CN116030110A
公开(公告)日:2023-04-28
申请号:CN202310105817.4
申请日:2023-02-08
Applicant: 杭州电子科技大学
IPC: G06T7/557 , G06V10/82 , G06V10/80 , G06V10/764 , G06N3/0455 , G06N3/0464 , G06N3/048
Abstract: 本发明公开了一种基于Transformer的光场极线几何图像视差估计方法。该方法设计了一种具有空间一致性信息保持的EpiFormer网络结构;该方法从0°、45°、90°、135°四个方向提取EPI图像块,并且每个方向提取三个相邻的EPI图像块,共12个EPI图像块作为EpiFormer网络结构的输入,输出为中心像素的视差值,通过把光场中心子光圈所有像素估计的视差值拼接起来,从而得到对应的光场视差图。本发明基于Transformer的方法,有效的建模EPI图像块中像素与像素之间的关联,同时添加了空间信息,缓解了遮挡带来的影响,同时也能得到更精确的像素匹配。
-
公开(公告)号:CN117455772A
公开(公告)日:2024-01-26
申请号:CN202311409579.2
申请日:2023-10-27
Applicant: 杭州电子科技大学
IPC: G06T3/4053 , G06T3/4046 , G06V10/42 , G06N3/0464 , G06T5/50
Abstract: 本发明公开了一种基于空间和角度信息融合的光场角度域超分辨率方法。本发明步骤:S1:构建光场子孔径图像训练数据集、测试数据集;S2:构建光场角度超分辨率深度神经网络模型;S3:为光场角度超分辨率网络模型设计损失函数;S4:利用训练好的光场角度超分辨率深度神经网络模型,在测试数据集上进行光场角度超分辨率任务测试。本发明提出的空间‑角度信息融合模块通过自注意力机制在光场子孔径图像的全局范围内提取到更强的空间特征,利用局部隐式函数建立更具体的角度依赖关系,再通过融合产生新的空间‑角度特征,具有更强的信息表达能力。本发明构建的模型在稀疏视角采样下的光场角度超分辨率任务中能够重建出更精准的结果。
-
公开(公告)号:CN116012229A
公开(公告)日:2023-04-25
申请号:CN202310059328.X
申请日:2023-01-20
Applicant: 杭州电子科技大学
IPC: G06T3/40 , G06V10/77 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种基于隐式对极几何函数的光场连续角度域表示方法。首先构建光场对极几何图像数据集;然后构建整体光场角度超分辨率网络,包括空间‑角度特征提取网络和局部隐式对极几何函数超分网络;再为整体光场角度超分辨率网络设计损失函数;为整体光场角度超分辨率网络定义一种水平方向与垂直方向分治的训练策略,进行水平‑垂直混合训练;最后利用训练好的整体光场角度超分辨率网络,采用三阶段拆分‑组合策略实现光场角度超分辨率。本发明提出了一种分治的学习机制以保证训练的有效性与光场的几何一致性。本发明的方法可以达到相似或更好的效果,可以实现更高倍率的角度超分辨率,并且高倍率仍然有很好的重建效果。
-
-