-
公开(公告)号:CN115908505A
公开(公告)日:2023-04-04
申请号:CN202211468058.X
申请日:2022-11-22
Applicant: 哈尔滨工程大学
IPC: G06T7/269 , G06T7/50 , G06N3/0464 , G06N3/048 , G06N3/0895
Abstract: 本发明提供一种基于注意力译码结构的2.5D单目场景流估计方法,包括以下步骤:S1构建相机姿态估计子网络与共享金字塔特征编码器;S2构建并行的基于空洞自注意力的深度译码器与基于非局部交叉帧注意力的光流译码器;S3构建总体网络损失函数;S4输入单目图像序列用自监督的形式对网络进行端到端的训练;S5输入连续两帧图像对模型进行测试时,可得到2.5D场景流的两个分量:光流和深度。输入单张图像对模型进行测试时,可得到深度估计结果。本发明利用基于注意力的译码结构对2.5D单目场景流进行估计,其中在译码结构引入注意力来强化特征表达能力和像素相关的计算,通过上述设计来达到提升场景流估计精度的目的。