-
公开(公告)号:CN119958541A
公开(公告)日:2025-05-09
申请号:CN202510042907.2
申请日:2025-01-10
Applicant: 厦门大学
IPC: G01C21/16 , G01C21/20 , G06N3/045 , G06N3/0442 , G06N3/0464 , G06F18/10 , G06N3/084 , H04W4/33
Abstract: 本发明涉及一种基于分布式扩展卡尔曼滤波深度学习优化算法的室内综合定位系统,属于室内定位领域。该系统通过引入神经网络(Neural Network,),将深度学习方法CNN‑LSTM应用于UWB NLOS/LOS信号分类,然后再引入分布式扩展卡尔曼滤波DEKF将超宽带UWB经过CNN‑LSTM优化过后的数据与惯性测量单元IMU的数据进行融合,抑制IMU随时间漂移造成累计误差从而保证测距数据精度的同时也保证各个传感器数据融合不会出现累计误差和时间同步的问题。本发明所提出的基于分布式扩展卡尔曼滤波深度学习优化算法CNN‑LSTM‑DEKF能够自动适应不同的传感器特性及环境变化,在复杂的室内环境中提供更加准确、鲁棒的定位结果。实验结果表明,在多径效应显著和信号遮挡间隙的室内环境中,本发明方法显着提升了定位精度。
-
公开(公告)号:CN119579796A
公开(公告)日:2025-03-07
申请号:CN202411790434.6
申请日:2024-12-06
Applicant: 厦门大学
Abstract: 本发明涉及一种基于3DGS的透明物体重建和新视角合成方法,包括以下步骤:S1.根据图像序列重建出数据集的稠密三维点云以及相机位姿信息;S2.利用三维点云以及相机位姿信息,使用3DGS方法重建三维场景,生成三维高斯核来表示输入场景;S3.引入Sobe l边缘检测器,并分别对三维高斯核生成的渲染图像以及真实图像中的透明物体的边缘进行提取,计算出渲染边缘图和真实边缘图的边缘损失函数;S4.结合边缘损失函数和原始3DGS损失函数,共同优化三维场景重建模型;S5.对场景进行整体优化并输出最终的三维重建结果。本发明的目的在于改善3DGS模型的重建质量,进而实现对透明物体的三维重建效果的提升。
-
公开(公告)号:CN119693558A
公开(公告)日:2025-03-25
申请号:CN202411893636.3
申请日:2024-12-20
Applicant: 厦门大学
IPC: G06T17/00 , G06T15/02 , G06V10/44 , G06N3/0464 , G06N3/045 , G06N3/0499
Abstract: 本发明涉及基于对极特征与条件扩散模型的频域优化稀疏视图的三维重建方法,包括以下步骤:S1.从包括一个物体全部信息的图库中选取若干张带有相机位姿信息的图像作为输入图像P1;S2.对输入图像P1使用CNN网络提取特征图,并采用多层线性注意力进行辅助特征提取;S3.将提取的特征图使用对极特征法提取特征,获取到特征;S4.将每张输入图像P1获取的特征作为条件扩散模型的训练条件,并逐步向上述特征中加入高斯噪声,训练条件扩散模型将噪声图像进行恢复。本发明使用对极特征法和条件扩散模型来对神经辐射场进行优化,不仅能够加速扩散模型的训练速度,有效改善伪影和模糊问题,还能够使得重建的效果更加地自然。
-
公开(公告)号:CN119001743A
公开(公告)日:2024-11-22
申请号:CN202411054779.5
申请日:2024-08-02
Applicant: 厦门大学
Abstract: 本发明涉及一种超宽带和激光雷达融合室内定位方法及相关设备,该方法包括:获取UWB和LiDAR的定位轨迹;计算参考轨迹坐标;对于一个时间点,分别通过若干种融合算法对UWB和LiDAR的定位轨迹坐标进行融合,并计算各种融合算法的融合坐标与参考轨迹坐标的误差,以误差最小的融合坐标作为最优估计坐标;分别计算UWB、LiDAR的定位轨迹坐标和最优估计坐标与参考轨迹坐标的距离并进行比较,以最小距离对应的坐标作为当前时间点的融合轨迹坐标;对于所有时间点依次分别进行以上处理,实现分段描点融合,得到所有时间点的融合轨迹坐标;结合所有时间点的融合轨迹坐标,即得到最终的融合轨迹并输出。该方法有利于提高室内定位的精度和鲁棒性,而且计算复杂度低。
-
-
-