一种基于PSMNet改进的双目立体匹配方法
Abstract:
本发明涉及一种基于PSMNet改进的双目立体匹配方法,包括:获取双目图像,构建基于PSMNet的主干网络;该网络包括:深度卷积网络,用于提取所述双目图像的左右特征图;金字塔池化结构,用于提取所述左右特征图的多尺度目标特征;匹配代价卷,用于将多尺度目标特征进行代价聚合,得到3D特征模块;3D卷积结构,用于对3D特征模块进行后续代价计算;通过引入通道注意力机制对不同特征点赋予不同的权重来改进匹配代价卷的结构;设计基于编码过程和解码过程的网络结构来改进3D卷积结构,得到改进后的基于PSMNet的主干网络;再对所述双目图像进行立体匹配。本发明的立体匹配方法能使网络结构获得更快的训练时间、更高的视差精度,具有较好的实用性。
Patent Agency Ranking
0/0