-
公开(公告)号:CN119850880A
公开(公告)日:2025-04-18
申请号:CN202411912451.2
申请日:2024-12-24
Applicant: 中国科学院上海微系统与信息技术研究所
IPC: G06T19/00 , G06T7/73 , G06V10/26 , G06V10/44 , G06V10/764 , G06V10/80 , G06V10/82 , G06N3/042 , G06N3/0464 , G06N3/0455 , G06N3/08
Abstract: 本发明涉及一种面向任务型机器人的高效场景表征方法,包括以下步骤:获取机器人捕获的不同视角的RGB图像帧及其深度信息;对每个图像帧进行全景分割获得2D语义信息和2D实例信息,并根据对应的深度信息向三维网格空间投影得到3D语义信息和3D实例信息;基于帧间相机位姿将各个图像帧的3D语义信息和3D实例信息融合到同一个世界坐标系下,进而根据融合后的3D语义信息和3D实例信息采用TSDF方法进行增量式建图,并在建图时基于语义信息和实例信息进行体素的融合更新,得到全景场景点云;基于所述全景场景点云,以其中所有实例为节点,以各个实例间的关系为边,预测获得3D场景图。本发明能够生成高效表征场景的三维语义场景图。
-
公开(公告)号:CN119739200A
公开(公告)日:2025-04-01
申请号:CN202411885489.5
申请日:2024-12-20
Applicant: 中国科学院上海微系统与信息技术研究所
Abstract: 本发明涉及一种面向多机器人协同的未知场景探索方法,具体包括局部探索阶段和全局探索阶段,在局部探索阶段中,各机器人在局部探索区域内进行探索,各机器人生成语义‑前沿视点,并针对所述语义‑前沿视点通过求解旅行商问题生成局部路径;在全局探索阶段,通过构建动态的拓扑图,将所述语义‑前沿视点存储至所述拓扑图的叶节点,并共享给全部的机器人,各机器人在离开所述局部探索区域时,考虑所述拓扑图内的叶节点,通过求解多旅行商问题生成全局路径,协调各机器人就近进入新的局部探索区域,实现多机器人协同探索。本发明能够实现高效的多机器人协同探索。
-
公开(公告)号:CN119665954A
公开(公告)日:2025-03-21
申请号:CN202411722566.5
申请日:2024-11-28
Applicant: 中国科学院上海微系统与信息技术研究所
Abstract: 本发明涉及一种任务驱动的无人机自主搜索方法,方法包括:利用无人机获取到的双目RGB图和IMU数据获取无人机里程计;利用无人机获取到的深度图和无人机里程计得到世界坐标系下的三维点云数据,并通过体素化处理建立概率体素地图;使用目标检测网络对双目RGB图进行目标检测,并获取目标位姿;利用检测置信度超过置信度上限的目标与概率体素地图完成任务场景地图的建立和更新;建立空间边界和潜在目标边界;利用空间边界和潜在目标边界建立无人机的搜索策略,并确定搜索视点;利用无人机里程计和搜索视点进行无人机的自主安全导航。本发明解决在通信拒止、陌生未知的场景下完备地探索任务空间同时高精度检测任务目标的难题。
-
公开(公告)号:CN111724439B
公开(公告)日:2024-05-17
申请号:CN201911200881.0
申请日:2019-11-29
Applicant: 中国科学院上海微系统与信息技术研究所
Abstract: 本发明涉及机器人导航定位技术领域,具体是一种动态场景下的视觉定位方法及装置,所述方法包括:获取当前帧图像,提取所述当前帧图像的特征点;将所述当前帧图像输入预设深度学习网络进行语义分割,得到目标语义图像;根据所述目标语义图像确定所述当前帧图像的运动掩模区域;获取所述当前帧图像的深度信息;基于所述目标语义图像和所述深度信息进行运动一致性检测,确定所述当前帧图像的静态特征点集合;根据所述静态特征点集合确定当前状态位姿信息。本发明通过语义分割结果和深度信息进行运动一致性检测,确定图像的静态特征点集合,能够有效提高在动态环境中对位姿估计的精确性和鲁棒性。
-
公开(公告)号:CN112580804B
公开(公告)日:2024-04-05
申请号:CN202011555461.7
申请日:2020-12-23
Applicant: 中国科学院上海微系统与信息技术研究所
IPC: G06N3/082 , G06N3/0464 , G06N3/0495 , G06V10/82
Abstract: 本发明涉及一种目标图像处理模型的确定方法、装置及存储介质,方法包括根据待剪枝图像处理模型的历史剪枝信息和历史精度信息,确定当前剪枝信息;基于当前剪枝信息,对待剪枝图像处理模型进行剪枝处理,得到剪枝后的模型;将样本图像输入剪枝后的模型,进行特征预测处理,得到预测特征信息;根据样本图像的标签信息和预测特征信息,确定剪枝后的模型的精度信息;根据剪枝后的模型的精度信息和当前剪枝信息,确定待剪枝信息;若待剪枝信息满足预设停止剪枝条件,将剪枝后的模型确定为目标图像处理模型。本发明可以减小目标图像处理模型的结构,减少目标图像处理模型所占资源,还可以保证剪枝后的网络模型的精度。
-
公开(公告)号:CN111862234B
公开(公告)日:2023-10-20
申请号:CN202010711704.5
申请日:2020-07-22
Applicant: 中国科学院上海微系统与信息技术研究所
Abstract: 本发明提供一种双目相机自标定方法及系统,包括:1)获取左右原始图像;2)校正左右原始图像;3)从左右校正图像中提取特征点并匹配;4)统计左右图像纵坐标偏差的平均值,若大于对应阈值则修正估计第一参数组,反复迭代修正,直至小于对应阈值;5)找到静态物体;6)处于移动状态时,追踪静态物体的视差及车轮运动信息;7)得到车轮运动距离与静态物体的三维距离变化值的距离偏差,若大于对应阈值则修正估计第二参数组,反复迭代校正,直至小于对应阈值,完成自标定。本发明利用实时图像追踪和车体运动信息,对内外参进行优化标定,完成图像校正工作,为车体提供准确的三维识别数据。
-
公开(公告)号:CN116433639A
公开(公告)日:2023-07-14
申请号:CN202310419749.9
申请日:2023-04-19
Applicant: 中国科学院上海微系统与信息技术研究所 , 安徽爱观视觉科技有限公司
Abstract: 本发明涉及一种基于双目视觉系统的受电弓燃弧检测方法和装置,其中,方法包括:采用双目相机对受电弓进行拍摄,获取双目图像,所述双目图像中包括受电弓与接触网;将所述双目图像送入第一yolov5目标检测模型中进行目标检测,得到受电弓与接触网的接触区域,以及受电弓与接触网的接触点;将所述双目图像送入第二yolov5目标检测模型中进行目标检测,检测出双目图像中的燃弧火花;对检测出双目图像中的燃弧火花进行三维重建,得到燃弧火花在空间的三维坐标;基于所述燃弧火花在空间的三维坐标计算所述燃弧火花和所述受电弓与接触网的接触点的距离,并根据距离滤除错误结果。本发明可以实现实时高精度的燃弧检测。
-
公开(公告)号:CN116380061A
公开(公告)日:2023-07-04
申请号:CN202211614647.4
申请日:2022-12-15
Applicant: 中国科学院上海微系统与信息技术研究所
IPC: G01C21/20 , G01C21/00 , G06V40/10 , G06N3/08 , G06N3/0464
Abstract: 本发明涉及一种移动机器人视听觉融合感知与导航方法,包括以下步骤:对移动机器人的视觉传感器系统与听觉传感器系统进行参数标定;利用视觉传感器系统和标定的参数构建导航栅格地图;使用视觉传感器系统获取交互对象的视频序列,并基于三维卷积和长短期记忆网络的手势识别方法,利用注意力机制和多尺度特征融合,实现以所述视频序列为输入的端到端手势行为识别;从所述视频序列中提取出感兴趣的目标对象并进行跟踪,并利用听觉传感器系统和视觉传感器系统得到具有显著性的目标对象的序列。本发明能够以更加智能和自然的方式与机器人导航系统进行交互。
-
公开(公告)号:CN116245940A
公开(公告)日:2023-06-09
申请号:CN202310052012.8
申请日:2023-02-02
Applicant: 中国科学院上海微系统与信息技术研究所
Abstract: 本发明涉及一种基于结构差异感知的类别级六自由度物体位姿估计方法,包括:将深度图输入至目标检测分割网络进行识别,并根据识别结果得到物体实例的观测点云,并基于物体实例的观测点云选择目标物体对应的类别先验;提取观测点云和类别先验的特征,得到实例几何特征和类别几何特征;将实例几何特征和类别几何特征输入信息交互增强模块,得到增强的实例几何特征和类别几何特征;再通过所述语义动态融合模块进行语义和几何信息的融合,得到实例融合特征和类别融合特征;基于类别融合特征得到实例NOCS模型;通过匹配网络将实例NOCS模型和观测点云进行匹配,并根据相似性计算得到目标物体的6D位姿和大小。本发明能够提高6D位姿估计的准确性。
-
公开(公告)号:CN114973388A
公开(公告)日:2022-08-30
申请号:CN202210484547.8
申请日:2022-05-06
Applicant: 中国科学院上海微系统与信息技术研究所
Abstract: 本发明涉及一种同时估计眼部视线和面部视线的视线估计方法,包括以下步骤:获取左眼图像、右眼图像和面部图像;分别对所述左眼图像、右眼图像和面部图像进行标准化坐标系处理;将标准化处理后的所述左眼图像、右眼图像和面部图像输入至视线评估模型,输出预测的眼部视线和面部视线;所述视线评估模型包括:特征提取层、特征信息转换层、第一特征交流层、第二特征交流层、第一全连接层和第二全连接层。本发明可以同时预测眼部视线和面部视线。
-
-
-
-
-
-
-
-
-