-
公开(公告)号:CN119942280A
公开(公告)日:2025-05-06
申请号:CN202411842248.2
申请日:2024-12-13
Applicant: 江淮前沿技术协同创新中心
Abstract: 本发明公开了一种基于两阶段时间配准的数据融合方法及装置,该方法一具体实施方式包括若干节点,每个节点均与第一设备通信连接;该方法应用于第一设备;基于同一时间窗口内每个节点针对目标观测对象的第一局部状态估计值,生成第一状态估计队列;针对第一状态估计队列中任一第一局部状态估计值:对第一局部状态估计值进行时间配准以及融合处理,生成第二配准状态估计值;基于第一状态估计队列中每个第一局部状态估计值对应的第二配准状态估计值进行融合处理,输出全局状态估计值。由此,本实施例运用卡尔曼滤波的两阶段加权异步融合技术,能够降低通信时延对融合精度的影响,从而提高了目标观测对象在高速场景下状态估计值的精度和实时性。
-
公开(公告)号:CN119935144A
公开(公告)日:2025-05-06
申请号:CN202510030621.2
申请日:2025-01-08
Applicant: 江淮前沿技术协同创新中心
Abstract: 本发明公开了一种基于相对位姿量测的分布式协同定位方法及装置,所述方法一具体实施方式主要是运用无人机集群中参考无人机与目标无人机之间的当前相对观测状态、参考无人机的当前观测状态,以及目标无人机的当前观测状态获得目标无人机在全局坐标系中的最优观测状态,之后再运用ESKF‑CI框架以分布式的方式实现动态拓扑下无人机集群协同鲁棒定位;由此,不仅简化了无人机集群中观测误差状态协方差矩阵的计算,为无人机集群的实时定位提供了保障;而且还解决了现有技术仅使用惯性测量单元的自主定位导航存在严重误差累积的问题。
-
公开(公告)号:CN120063283A
公开(公告)日:2025-05-30
申请号:CN202510250489.6
申请日:2025-03-04
Applicant: 江淮前沿技术协同创新中心
Abstract: 本发明公开了一种针对室内场景的多机实时协同定位方法及装置,该方法包括:根据室内场景的IMU数据和激光雷达数据,对连续帧进行关键帧选取操作生成关键帧序列;基于激光雷达数据和所述关键帧序列,构建室内场景对应的局部语义地图;针对关键帧序列中任一当前关键帧:从当前关键帧中提取Lidar‑Iris描述子;基于局部语义地图和Lidar‑Iris描述子,在关键帧序列中对当前关键帧进行回环检测;基于回环检测结果对当前关键帧进行局部‑全局优化,生成第一目标机器人当前时刻对应的全局位姿。由此,解决了现有技术中室内场景结构重复导致的感知混淆和分布式优化对初值敏感的技术问题,从而提高了多机协同定位与建图的精度。
-
-