一种针对野外洞穴森林环境侦察的多传感器融合定位方法

    公开(公告)号:CN116105729A

    公开(公告)日:2023-05-12

    申请号:CN202310162326.3

    申请日:2023-02-24

    Abstract: 本发明涉及一种针对野外洞穴森林环境侦察的多传感器融合定位方法,属于目标定位技术领域。通过激光惯性GNSS四传感器紧耦合的方式,将激光雷达点云残差、视觉重投影误差、IMU残差、GNSS的伪距、多普勒频移和时钟钟差以因子的形式加入到优化中,充分利用了激光雷达作用范围大、误差小、不受光线影响的优点,视觉充分利用纹理、像素特征信息,IMU高频的优点以及GNSS提供的绝对位置信息和无累积误差的优点,利用激光雷达信息、视觉、IMU信息和GNSS信息优化计算得到可靠精确的高频位置信息。

    一种基于视觉惯性GNSS紧耦合的无缝定位方法

    公开(公告)号:CN115523920B

    公开(公告)日:2023-03-10

    申请号:CN202211512861.9

    申请日:2022-11-30

    Abstract: 本发明涉及一种基于视觉惯性GNSS紧耦合的无缝定位方法,使用SPP算法计算载体初始绝对位置,使用多普勒频移与视觉惯性系统解算出的载体速度对齐,获得载体在ENU坐标系下的初始位置、姿态和速度。分别计算IMU残差、视觉重投影误差、伪距残差、多普勒频移残差和接收机时钟残差,将其作为因子加入到优化项中,优化求解获得载体的绝对位姿。提出一种针对GNSS拒止环境的状态切换策略,在无可用的GNSS信息时,锁定与GNSS相关的状态量并在因子图中隔离伪距残差因子、多普勒频移残差因子和接收机时钟残差因子,系统退化为视觉惯性融合的定位方法。此方法在GNSS信号弱的拒止环境下能够获得可靠精确的绝对位姿,并能在进出拒止环境时进行状态的无缝切换。

    一种基于视觉惯性GNSS紧耦合的无缝定位方法

    公开(公告)号:CN115523920A

    公开(公告)日:2022-12-27

    申请号:CN202211512861.9

    申请日:2022-11-30

    Abstract: 本发明涉及一种基于视觉惯性GNSS紧耦合的无缝定位方法,使用SPP算法计算载体初始绝对位置,使用多普勒频移与视觉惯性系统解算出的载体速度对齐,获得载体在ENU坐标系下的初始位置、姿态和速度。分别计算IMU残差、视觉重投影误差、伪距残差、多普勒频移残差和接收机时钟残差,将其作为因子加入到优化项中,优化求解获得载体的绝对位姿。提出一种针对GNSS拒止环境的状态切换策略,在无可用的GNSS信息时,锁定与GNSS相关的状态量并在因子图中隔离伪距残差因子、多普勒频移残差因子和接收机时钟残差因子,系统退化为视觉惯性融合的定位方法。此方法在GNSS信号弱的拒止环境下能够获得可靠精确的绝对位姿,并能在进出拒止环境时进行状态的无缝切换。

    一种低带宽的多机器人协同探索地图融合方法

    公开(公告)号:CN117782064B

    公开(公告)日:2024-05-24

    申请号:CN202410207037.5

    申请日:2024-02-26

    Abstract: 本公开实施例是关于一种低带宽的多机器人协同探索地图融合方法。该方法包括:每个机器人维护一个全局栅格地图,首先每个机器人通过自身传感器更新全局栅格地图,并计数首次得到更新的体素的数量,当这些体素的数量超出阈值时,触发子地图共享过程。通过滑动立方体确定目标待共享子地图的共享范围,然后将目标待共享子地图转化为八叉树地图并进行编码,并将编码后的第一待共享地图数据传输给其余机器人。其余机器人将第一待共享地图数据解码转化为八叉树地图并融合至自身所维护的全局栅格地图中,完成一次地图融合。另外,还设计了地图重融合机制以用于检查地图数据更新的同步性。

    一种基于多立体视觉惯性紧耦合的自主定位方法

    公开(公告)号:CN117760428B

    公开(公告)日:2024-04-30

    申请号:CN202410197575.0

    申请日:2024-02-22

    Abstract: 本公开实施例是关于一种基于多立体视觉惯性紧耦合的自主定位方法。该方法包括:分别对每个立体相机的图像信息和IMU信息进行预处理;基于与先前图像帧的视差计算和特征点跟踪的质量,选择新的多视图关键帧。使用PnP求解初始关键帧位姿,并根据特征点的状态信息筛选出图像特征点信息。通过不断迭代更新,获得高质量的图像特征信息和准确的多视图关键帧位姿;最后计算IMU残差和多立体视觉重投影残差,建立非线性优化模型求解位姿。本公开实施例实现了任意数量的多立体视觉惯性紧耦合定位。当视觉定位方法在处理局部遮挡、光照变化、纹理不足等具有挑战性的视觉场景时失效时,仍能正常工作输出可靠的定位结果。

    一种基于事件相机惯性紧耦合的自主定位方法

    公开(公告)号:CN117739996B

    公开(公告)日:2024-04-30

    申请号:CN202410190767.9

    申请日:2024-02-21

    Abstract: 本公开实施例是关于一种基于事件相机惯性紧耦合的自主定位方法。本公开实施例对事件相机输出的事件相机信息建立事件帧表征模型和活动事件表面表征模型,对事件帧进行基于异步事件流的运动补偿并对活动事件表面表征模型进行基于最小时间间隔的平滑,对异步事件流进行关键点的检测和跟踪,对IMU进行预积分;接下来进行基于事件相机的仅视觉初始化,进行事件相机IMU松耦合的联合初始化,对定位系统的外参、IMU陀螺仪偏置、事件相机的初始速度、尺度和重力矢量进行估计。最后建立非线性优化模型,分别构建事件相机测量残差、IMU残差加入优化以得到紧耦合优化模型求解,并求解载体定位结果。

    一种基于多立体视觉惯性紧耦合的自主定位方法

    公开(公告)号:CN117760428A

    公开(公告)日:2024-03-26

    申请号:CN202410197575.0

    申请日:2024-02-22

    Abstract: 本公开实施例是关于一种基于多立体视觉惯性紧耦合的自主定位方法。该方法包括:分别对每个立体相机的图像信息和IMU信息进行预处理;基于与先前图像帧的视差计算和特征点跟踪的质量,选择新的多视图关键帧。使用PnP求解初始关键帧位姿,并根据特征点的状态信息筛选出图像特征点信息。通过不断迭代更新,获得高质量的图像特征信息和准确的多视图关键帧位姿;最后计算IMU残差和多立体视觉重投影残差,建立非线性优化模型求解位姿。本公开实施例实现了任意数量的多立体视觉惯性紧耦合定位。当视觉定位方法在处理局部遮挡、光照变化、纹理不足等具有挑战性的视觉场景时失效时,仍能正常工作输出可靠的定位结果。

    一种低带宽的多机器人协同探索地图融合方法

    公开(公告)号:CN117782064A

    公开(公告)日:2024-03-29

    申请号:CN202410207037.5

    申请日:2024-02-26

    Abstract: 本公开实施例是关于一种低带宽的多机器人协同探索地图融合方法。该方法包括:每个机器人维护一个全局栅格地图,首先每个机器人通过自身传感器更新全局栅格地图,并计数首次得到更新的体素的数量,当这些体素的数量超出阈值时,触发子地图共享过程。通过滑动立方体确定目标待共享子地图的共享范围,然后将目标待共享子地图转化为八叉树地图并进行编码,并将编码后的第一待共享地图数据传输给其余机器人。其余机器人将第一待共享地图数据解码转化为八叉树地图并融合至自身所维护的全局栅格地图中,完成一次地图融合。另外,还设计了地图重融合机制以用于检查地图数据更新的同步性。

    一种基于事件相机惯性紧耦合的自主定位方法

    公开(公告)号:CN117739996A

    公开(公告)日:2024-03-22

    申请号:CN202410190767.9

    申请日:2024-02-21

    Abstract: 本公开实施例是关于一种基于事件相机惯性紧耦合的自主定位方法。本公开实施例对事件相机输出的事件相机信息建立事件帧表征模型和活动事件表面表征模型,对事件帧进行基于异步事件流的运动补偿并对活动事件表面表征模型进行基于最小时间间隔的平滑,对异步事件流进行关键点的检测和跟踪,对IMU进行预积分;接下来进行基于事件相机的仅视觉初始化,进行事件相机IMU松耦合的联合初始化,对定位系统的外参、IMU陀螺仪偏置、事件相机的初始速度、尺度和重力矢量进行估计。最后建立非线性优化模型,分别构建事件相机测量残差、IMU残差加入优化以得到紧耦合优化模型求解,并求解载体定位结果。

    基于改进YOLOv5的固定翼无人机高空俯拍机场跑道目标检测方法

    公开(公告)号:CN117690046A

    公开(公告)日:2024-03-12

    申请号:CN202311576471.2

    申请日:2023-11-24

    Abstract: 本发明涉及一种基于改进YOLOv5的固定翼无人机高空俯拍机场跑道目标检测方法,属于无人机目标检测领域。获取机场跑道图像作为数据集,将数据集分为训练集和验证集,对数据集使用roLabelImg对图像中的目标进行旋转框标定;根据数据集计算预定义锚框,将预定义锚框和训练集输入改进YOLOv5网络模型进行训练;将改进YOLOv5网络模型的输出预测框与旋转框进行比对,使用损失函数计算差距后再反向更新,不断迭代参数来获取最优的锚框值;将验证集输入到训练好的改进YOLOv5网络模型进行目标检测。本发明轻量化YOLOv5的骨干网络结构为ShuffleNetV2,改变目标检测采取的边框标注方式水平框改为旋转框,减少网络训练时的冗余信息就越少,提高固定翼无人机在自主着陆时对目标检测速度及精度的方法。

Patent Agency Ranking