-
公开(公告)号:CN119919677A
公开(公告)日:2025-05-02
申请号:CN202411933696.3
申请日:2024-12-26
Applicant: 中国科学院上海微系统与信息技术研究所
IPC: G06V10/44 , G06V10/46 , G06V10/82 , G06V10/94 , G06N3/0455 , G06N3/0464 , G06N3/063
Abstract: 本发明涉及一种实时SuperPoint网络特征提取与描述方法及装置。其中方法包括:利用SuperPoint卷积神经网络模块对输入图像进行特征提取,并生成用于进行特征点提取的第一特征张量,以及用于进行描述子计算的第二特征张量;构建特征点提取模块基于所述第一特征张量提取特征点坐标,并实时输出所述特征点坐标和扫描坐标;构建描述子计算模块实时获取所述特征点坐标、所述扫描坐标,并根据所述特征点坐标和所述扫描坐标从所述第二特征张量中选择对应位置的张量数据进行描述子计算。本发明能够实现特征点提取和描述子计算的并行处理,提高了SuperPoint网络特征提取与描述的实时性。
-
公开(公告)号:CN119850913A
公开(公告)日:2025-04-18
申请号:CN202411914225.8
申请日:2024-12-24
Applicant: 中国科学院上海微系统与信息技术研究所
Abstract: 本发明涉及一种基于多相机装置的动态目标检测方法及系统。其中,动态目标检测方法应用于包括彩色相机、微光相机、红外相机、以及事件相机的多相机装置,包括以下步骤:获取设定时刻彩色相机、微光相机、以及红外相机拍摄的图像并分别进行目标检测,获得彩色相机发现的目标TC、微光相机发现的目标TL、以及红外相机发现的目标TI;获取所述设定时刻事件相机发现的视野范围内的动态事件图TE;基于目标TC、目标TL、以及目标TI与动态事件图TE的轮廓重合度确定是否发现动态目标。本发明能够适用于各种光照环境并排除背景对检测算法的影响,提高算法对虚假目标识别的鲁棒程度。
-
公开(公告)号:CN119850880A
公开(公告)日:2025-04-18
申请号:CN202411912451.2
申请日:2024-12-24
Applicant: 中国科学院上海微系统与信息技术研究所
IPC: G06T19/00 , G06T7/73 , G06V10/26 , G06V10/44 , G06V10/764 , G06V10/80 , G06V10/82 , G06N3/042 , G06N3/0464 , G06N3/0455 , G06N3/08
Abstract: 本发明涉及一种面向任务型机器人的高效场景表征方法,包括以下步骤:获取机器人捕获的不同视角的RGB图像帧及其深度信息;对每个图像帧进行全景分割获得2D语义信息和2D实例信息,并根据对应的深度信息向三维网格空间投影得到3D语义信息和3D实例信息;基于帧间相机位姿将各个图像帧的3D语义信息和3D实例信息融合到同一个世界坐标系下,进而根据融合后的3D语义信息和3D实例信息采用TSDF方法进行增量式建图,并在建图时基于语义信息和实例信息进行体素的融合更新,得到全景场景点云;基于所述全景场景点云,以其中所有实例为节点,以各个实例间的关系为边,预测获得3D场景图。本发明能够生成高效表征场景的三维语义场景图。
-
公开(公告)号:CN119739200A
公开(公告)日:2025-04-01
申请号:CN202411885489.5
申请日:2024-12-20
Applicant: 中国科学院上海微系统与信息技术研究所
Abstract: 本发明涉及一种面向多机器人协同的未知场景探索方法,具体包括局部探索阶段和全局探索阶段,在局部探索阶段中,各机器人在局部探索区域内进行探索,各机器人生成语义‑前沿视点,并针对所述语义‑前沿视点通过求解旅行商问题生成局部路径;在全局探索阶段,通过构建动态的拓扑图,将所述语义‑前沿视点存储至所述拓扑图的叶节点,并共享给全部的机器人,各机器人在离开所述局部探索区域时,考虑所述拓扑图内的叶节点,通过求解多旅行商问题生成全局路径,协调各机器人就近进入新的局部探索区域,实现多机器人协同探索。本发明能够实现高效的多机器人协同探索。
-
公开(公告)号:CN119665954A
公开(公告)日:2025-03-21
申请号:CN202411722566.5
申请日:2024-11-28
Applicant: 中国科学院上海微系统与信息技术研究所
Abstract: 本发明涉及一种任务驱动的无人机自主搜索方法,方法包括:利用无人机获取到的双目RGB图和IMU数据获取无人机里程计;利用无人机获取到的深度图和无人机里程计得到世界坐标系下的三维点云数据,并通过体素化处理建立概率体素地图;使用目标检测网络对双目RGB图进行目标检测,并获取目标位姿;利用检测置信度超过置信度上限的目标与概率体素地图完成任务场景地图的建立和更新;建立空间边界和潜在目标边界;利用空间边界和潜在目标边界建立无人机的搜索策略,并确定搜索视点;利用无人机里程计和搜索视点进行无人机的自主安全导航。本发明解决在通信拒止、陌生未知的场景下完备地探索任务空间同时高精度检测任务目标的难题。
-
公开(公告)号:CN118092383B
公开(公告)日:2025-03-18
申请号:CN202410132143.1
申请日:2024-01-31
Applicant: 中国科学院上海微系统与信息技术研究所
IPC: G05B23/02
Abstract: 本发明涉及一种车载监测系统实时故障定位方法及系统。其中,故障定位方法包括以下步骤:采集监测数据;获取TCMS报文,提取所述TCMS报文的编码时间和TCMS数据;根据所述编码时间计算监测系统与TCMS系统的时间差;判断所述时间差是否小于设定值,如果小于所述设定值则将所述TCMS数据同步到所述监测系统的配准时刻,否则根据所述监测数据对所述TCMS数据进行补偿;将所述监测数据和所述TCMS数据进行融合,并根据融合后的数据进行故障定位。本发明能够提高轨道交通车载监测系统实时故障定位的精度。
-
公开(公告)号:CN111724439B
公开(公告)日:2024-05-17
申请号:CN201911200881.0
申请日:2019-11-29
Applicant: 中国科学院上海微系统与信息技术研究所
Abstract: 本发明涉及机器人导航定位技术领域,具体是一种动态场景下的视觉定位方法及装置,所述方法包括:获取当前帧图像,提取所述当前帧图像的特征点;将所述当前帧图像输入预设深度学习网络进行语义分割,得到目标语义图像;根据所述目标语义图像确定所述当前帧图像的运动掩模区域;获取所述当前帧图像的深度信息;基于所述目标语义图像和所述深度信息进行运动一致性检测,确定所述当前帧图像的静态特征点集合;根据所述静态特征点集合确定当前状态位姿信息。本发明通过语义分割结果和深度信息进行运动一致性检测,确定图像的静态特征点集合,能够有效提高在动态环境中对位姿估计的精确性和鲁棒性。
-
公开(公告)号:CN112580804B
公开(公告)日:2024-04-05
申请号:CN202011555461.7
申请日:2020-12-23
Applicant: 中国科学院上海微系统与信息技术研究所
IPC: G06N3/082 , G06N3/0464 , G06N3/0495 , G06V10/82
Abstract: 本发明涉及一种目标图像处理模型的确定方法、装置及存储介质,方法包括根据待剪枝图像处理模型的历史剪枝信息和历史精度信息,确定当前剪枝信息;基于当前剪枝信息,对待剪枝图像处理模型进行剪枝处理,得到剪枝后的模型;将样本图像输入剪枝后的模型,进行特征预测处理,得到预测特征信息;根据样本图像的标签信息和预测特征信息,确定剪枝后的模型的精度信息;根据剪枝后的模型的精度信息和当前剪枝信息,确定待剪枝信息;若待剪枝信息满足预设停止剪枝条件,将剪枝后的模型确定为目标图像处理模型。本发明可以减小目标图像处理模型的结构,减少目标图像处理模型所占资源,还可以保证剪枝后的网络模型的精度。
-
公开(公告)号:CN113326751B
公开(公告)日:2024-02-13
申请号:CN202110547828.9
申请日:2021-05-19
Applicant: 中国科学院上海微系统与信息技术研究所
Abstract: 本发明涉及一种手部3D关键点的标注方法,包括:构建通用手部3D骨架模型;获取待标注手部每根手指均伸直的初始帧图像,构建待标注手部3D骨架模型;获取在不同手势下的若干待标注手部3D骨架姿态;获取待标注手部的当前帧图像以及当前帧图像的初始3D骨架姿态,在当前帧图像中标注出当前手部关键点的2D位置,确定当前帧图像的真实3D骨架姿态,获取当前帧图像中的手部3D关键点;对所述当前手部关键点的2D位置进行光流跟踪,获取下一帧图像的手部关键点的2D位置;重复上述步骤,直到所有图像的手部3D关键点均完成标注。本发明可以减少人工标注的工作量,从而降低人工成本并提高效率,同时可以提高标注精度。(56)对比文件Onur G. Guleryuz 等.Fast Lifting for3D Hand Pose Estimation in AR/VRApplications《.2018 25th IEEEInternational Conference on ImageProcessing (ICIP)》.2018,1-5.Jameel Malik 等.Simultaneous HandPose and Skeleton Bone-Lengths Estimationfrom a Single Depth Image《.arXiv:1712.03121》.2017,1-9.Christian Zimmermann 等.Learning toEstimate 3D Hand Pose from Single RGBImages《.arXiv:1705.01389》.2017,1-9.
-
公开(公告)号:CN111932617B
公开(公告)日:2023-12-22
申请号:CN202010681039.X
申请日:2020-07-15
Applicant: 中国科学院上海微系统与信息技术研究所
IPC: G06F7/544
Abstract: 本发明涉及一种对规则物体实现实时检测定位方法,包括以下步骤:将包含物体的感兴趣区域处理成二值化图像;对所述二值化图像进行积分处理,并通过聚类算法获取聚类中心点;根据所述聚类中心点估计出物体的距离和姿态关系。本发明还涉及一种对规则物体实现实时检测定位系统。本发明能够提高检测的精确度和鲁棒性。
-
-
-
-
-
-
-
-
-