一种多传感器时间空间标定方法及装置

    公开(公告)号:CN112598757A

    公开(公告)日:2021-04-02

    申请号:CN202110236278.9

    申请日:2021-03-03

    Abstract: 本申请公开了一种多传感器时间空间标定方法及装置,包括:通过IMU传感器获取IMU数据,通过相机获取图像数据,通过激光雷达获取点云数据;对所述图像数据进行语义分割及特征点提取,进行匹配,构建重投影误差方程,并将IMU传感器与相机之间的第一时间偏差引入所述重投影误差方程;对所述点云数据进行修正,并引入IMU传感器与激光雷达之间的第二时间偏差,对修正后的点云进行配准,计算出两帧点云之间的相对位姿;获取两帧图像间的IMU数据和点云间的IMU数据,通过预积分计算相对位姿和位姿偏差;设定滑动窗口,根据所述滑动窗口内所述重投影误差方程、所述相对位姿、所述位姿偏差进行迭代优化求解,实现多传感器时间空间标定。

    一种基于空间关系的RGB-D图像语义分割方法

    公开(公告)号:CN112115951B

    公开(公告)日:2021-03-09

    申请号:CN202011301588.6

    申请日:2020-11-19

    Abstract: 本发明公开了一种基于空间关系的RGB‑D图像语义分割方法,该方法以Deeplab‑v3作为基础模型构建语义分割网络,包括特征提取模块、空间关系相似度损失模块、解码器模块和损失函数模块。针对室内场景的RGB‑D图像进行语义分割,通过深度学习网络有效融合RGB信息与Depth信息,在骨干网络中引入空间关系相似度。本发明是在网络结构并行设计的基础上,通过计算深度信息与RGB信息的区域性特征值与相似性程度的度量,辅助提升深度与RGB信息的融合效果。本发明仅依赖于能够提供RGB数据和深度数据的传感器设备,方法简便,是基于Kinect、Xtion等体感设备应用中图像匹配的有效方法。

    一种基于邻域关系的火星栅格地形地图生成方法

    公开(公告)号:CN112396039A

    公开(公告)日:2021-02-23

    申请号:CN202110036562.1

    申请日:2021-01-12

    Abstract: 本发明公开了一种基于邻域关系的火星栅格地形地图生成方法,属于计算机图像处理技术领域。该火星栅格地形地图生成方法将收集的火星近地面图片输入地形分类网络中进行训练,当交叉熵损失函数收敛时,完成对地形分类网络的训练,以训练好的地形分类网络为基础,在火星近距离地面图片上划分栅格并逐窗口地预测地形类别,后续在上述栅格地形地图上进行结果的平滑,设计了基于邻域关系的多尺度融合与投票平滑算法,最终生成栅格地形地图。本发明的栅格地形地图生成方法仅依赖于能够提供火星近地面图片的传感器设备,方法简单,是基于导航相机、避障相机等设备实现地形理解的有效方法。

    一种任务执行方法、装置、存储介质以及电子设备

    公开(公告)号:CN119206538A

    公开(公告)日:2024-12-27

    申请号:CN202411717218.9

    申请日:2024-11-27

    Abstract: 本说明书提供的一种任务执行方法、装置、存储介质以及电子设备,可以获取目标卫星连续拍摄得到的待检测图像序列,将其输入到目标检测模型中,目标检测模型针对待检测图像序列包含的每个图像,从中检测各目标物体,并确定各目标物体的属性信息,针对每个目标物体,根据目标卫星的位置信息、待检测图像序列中各图像中该目标物体的位置信息,确定该目标物体的行为信息,基于目标卫星的位置信息,构建第一节点,针对每个目标物体,基于该目标物体的属性信息,构建第二节点,根据该目标物体的行为信息,确定该目标物体所对应的边的类型,并按照该目标物体所对应的边的类型构建第二节点与第一节点之间的边,以得到目标图,并根据目标图执行避让任务。

    一种模型训练及航天器目标检测方法、装置及电子设备

    公开(公告)号:CN118378693A

    公开(公告)日:2024-07-23

    申请号:CN202410803846.2

    申请日:2024-06-20

    Abstract: 本说明书公开了一种模型训练及航天器目标检测方法、装置及电子设备。所述模型训练方法包括:获取航天场景中的点云数据并输入教师检测模型,得到初始特征;基于预设的调整网络,对初始特征进行调整,得到基准特征;将点云数据输入目标检测模型,以通过目标检测模型的特征提取网络,对点云数据进行特征提取,得到目标特征和蒸馏特征;根据目标特征,确定目标检测结果;根据基准特征与蒸馏特征之间的偏差,以及目标检测结果与点云数据所对应的实际标签之间的偏差,确定损失值并对目标检测模型进行训练。本方案可以使目标检测模型充分学习教师检测模型所提取到的知识,保证了模型性能,并且可以实现在少样本的情况下对目标检测模型进行训练。

    用于主动悬挂轮式机器人的控制方法及计算机设备

    公开(公告)号:CN117360143A

    公开(公告)日:2024-01-09

    申请号:CN202311471253.2

    申请日:2023-11-06

    Inventor: 王晓坤 李月华

    Abstract: 本说明书提供一种用于主动悬挂轮式机器人的控制方法及计算机设备,所述主动悬挂轮式机器人包括多个轮毂、多个轮毂电机、多个悬挂电机和多个主动悬挂臂。所述控制方法包括:在满足按照规划路径行进的条件下,获取主动悬挂轮式机器人的姿态数据;根据姿态数据,确定主动悬挂轮式机器人是否存在翻车风险;在主动悬挂轮式机器人存在翻车风险的情况下,调节至少部分悬挂电机,进而使悬挂电机驱动主动悬挂臂作出相应调整,进而使主动悬挂轮式机器人的运动姿态得到实时地调节,减小车体倾斜或晃动。从而提高主动悬挂轮式机器人的越障能力以及对地形的适应能力。

    用于主动悬挂轮式机器人的控制方法、装置及计算机设备

    公开(公告)号:CN117360142A

    公开(公告)日:2024-01-09

    申请号:CN202311453313.8

    申请日:2023-11-02

    Inventor: 王晓坤 李月华

    Abstract: 本说明书提供一种用于主动悬挂轮式机器人的控制方法、装置及计算机设备,所述主动悬挂轮式机器人包括多个轮毂、多个轮毂电机、多个悬挂电机和多个主动悬挂臂。所述控制方法包括:检测每个轮毂电机的负载扭矩;根据控制算法和每个轮毂电机的负载扭矩,确定与至少部分轮毂电机对应设置的悬挂电机的调节参数;根据与至少部分轮毂电机对应设置的悬挂电机的调节参数,调节对应的悬挂电机,使所述主动悬挂臂在悬挂电机的驱动下作出相应调整,进而使与主动悬挂臂连接的轮毂电机的负载扭矩达到均衡,以减小车体倾斜和晃动,从而提高轮式机器人对地形的适应能力以及越障能力。

    一种双目与点云融合深度恢复方法、装置和介质

    公开(公告)号:CN115861401B

    公开(公告)日:2023-06-09

    申请号:CN202310170221.2

    申请日:2023-02-27

    Abstract: 本发明公开了一种双目与点云融合深度恢复方法、装置和介质,该方法构建了深度恢复神经网络,包括稀疏扩展模块、多尺度特征提取及融合模块、可变权重高斯调制模块和级联三维卷积神经网络模块,以稀疏点云数据及双目图像为输入,通过邻域扩展得到半稠密的深度图像,并基于该图像及双目图像进行特征提取及融合,构建代价卷,利用可变权重高斯调制函数进行调制,并通过深度学习网络进行代价聚合,实现稠密深度信息的恢复。本发明在双目立体匹配网络的基础上,引入稀疏点云,以邻域扩展方法提升引导点稠密度,并综合采用高斯调制及多尺度特征提取融合的方法,有助于提升深度恢复的精度及鲁棒性,是真实应用中稠密深度恢复的有效方法。

    一种面向太空中非合作目标的实时位姿跟踪方法及其系统

    公开(公告)号:CN115908485A

    公开(公告)日:2023-04-04

    申请号:CN202211348852.0

    申请日:2022-10-31

    Abstract: 本发明公开了一种面向太空中非合作目标的实时位姿跟踪方法,包括:对相机拍摄到的原始RGB图像进行目标检测与实例分割,确定待跟踪物体的目标区域;提取所述目标区域的关键点信息,所述关键点信息包括关键点的位置及关键点的特征向量;匹配当前帧与前一帧的关键点,即对当前帧和前一帧的关键点特征值进行更新,将更新后的所述当前帧的关键点与前一帧的关键点进行匹配,并剔除误匹配点对,得到优化后的匹配结果;计算所述当前帧的位姿;利用历史帧的数据,对所述当前帧的位姿进行优化。本发明使用相邻帧关键点匹配的方式计算相对位姿,不需要在跟踪过程中实时对目标进行建模,有效避免了引入建模误差,提高了位姿生成速率,减少了燃料消耗。

Patent Agency Ranking