一种在困难条件下检测子和描述符同时生成的特征点匹配方法

    公开(公告)号:CN114067100A

    公开(公告)日:2022-02-18

    申请号:CN202111272552.4

    申请日:2021-10-29

    Applicant: 厦门大学

    Abstract: 本发明涉及图像识别技术领域,且公开了一种在困难条件下检测子和描述符同时生成的特征点匹配方法,在我们提出的方法中,其中单一卷积神经网络发挥双重作用:它同时是密集的特征描述符和特征检测器,即采用单一神经网络,同时获取检测子和描述子。在局部重建任务中的亚琛昼夜数据集上,本方法比所有特征点匹配方法表现更好。结果明显验证了我们的描述符和检测子同时生成的方法的优越性,因为它在这种极富挑战性的情况下显著胜过先检测后描述的方法。我们提出了一种新的方法——检测子和描述符同时生成来提取局部特征进行特征点匹配。已经证明,我们的方法在极具挑战性的条件下的优越性。

    基于大核注意力机制的三维重建方法

    公开(公告)号:CN117576336A

    公开(公告)日:2024-02-20

    申请号:CN202311520459.X

    申请日:2023-11-15

    Applicant: 厦门大学

    Abstract: 基于大核注意力机制的三维重建方法。1.特征提取:基于多尺度特征的提取策略,通过大核注意力LKA机制对一个重建场景的N个视角的图像进行特征提取;2.可微单应性变换:通过单应变换实现多视图间的空间转换,得源图像与多个参考图像间的像素点对应关系;3.关联体构建与关联体正则化:分别提取相应位置的特征信息,使用特征相关性构建N‑1个匹配关联体,采用适应性聚合策略AAS构建成一个统一的匹配关联体,使用全局自适应均值池化注意GAAPA进行正则化;4.深度图推断:将深度图推断视为分类任务,将正则化后的代价体在深度维度D使用Softmax函数得概率体,根据概率分布沿D维度推断各像素点最优深度值构成最后的深度图。

    基于自适应学习和聚合的多视图立体重建方法

    公开(公告)号:CN115631223A

    公开(公告)日:2023-01-20

    申请号:CN202211183328.2

    申请日:2022-09-27

    Applicant: 厦门大学

    Abstract: 本发明涉及一种基于自适应学习和聚合的多视图立体重建方法,它包括以下步骤:S1.特征提取,从输入图像中提取图像特征,将众多信息中不重要的信息剔除;S2.匹配代价构建,在每个采样深度假设下,计算参考摄像机中的每个像素与其相邻摄像机对应匹配像素之间的匹配成本;S3.匹配代价正则化,对匹配代价中的代价体进行去噪处理;S4.深度图估计,将匹配代价正则化后的结果利用函数回归加权得到初始深度图;S5.深度图优化,将初始深度图的边缘部分减轻过平滑的影响。本发明的目的在于提供一种基于自适应学习和聚合的多视图立体重建方法,相比MVSNet有着更高的重建精度和完整度,并且极大降低时间消耗和显卡内存消耗。

Patent Agency Ranking