-
公开(公告)号:CN118092383B
公开(公告)日:2025-03-18
申请号:CN202410132143.1
申请日:2024-01-31
Applicant: 中国科学院上海微系统与信息技术研究所
IPC: G05B23/02
Abstract: 本发明涉及一种车载监测系统实时故障定位方法及系统。其中,故障定位方法包括以下步骤:采集监测数据;获取TCMS报文,提取所述TCMS报文的编码时间和TCMS数据;根据所述编码时间计算监测系统与TCMS系统的时间差;判断所述时间差是否小于设定值,如果小于所述设定值则将所述TCMS数据同步到所述监测系统的配准时刻,否则根据所述监测数据对所述TCMS数据进行补偿;将所述监测数据和所述TCMS数据进行融合,并根据融合后的数据进行故障定位。本发明能够提高轨道交通车载监测系统实时故障定位的精度。
-
公开(公告)号:CN112270688B
公开(公告)日:2024-05-28
申请号:CN202011216784.3
申请日:2020-11-04
Applicant: 中国科学院上海微系统与信息技术研究所
Abstract: 本申请涉及一种前景提取方法、装置、设备或存储介质,该方法包括:获取红外图像序列和可见光图像序列;红外图像序列和可见光图像序列一一对应;对红外图像序列中每帧红外图像进行对比度处理,得到初始掩膜图像序列;将初始掩膜图像序列和可见光图像序列进行串联,得到输入图像序列;根据已训练的特征提取模型对输入图像序列进行特征提取,得到特征张量;根据已训练的长短时记忆网络模型,确定特征张量对应的预测掩膜图像;根据预测掩膜图像和可见光图像,确定前景图像。本申请实施例提供的一种前景提取方法适用于静止或运动的前景物体,包括半透明物体、运动模糊物体和虚焦物体的提取,可以提高前景物体的边缘的提取精度。
-
公开(公告)号:CN111724439B
公开(公告)日:2024-05-17
申请号:CN201911200881.0
申请日:2019-11-29
Applicant: 中国科学院上海微系统与信息技术研究所
Abstract: 本发明涉及机器人导航定位技术领域,具体是一种动态场景下的视觉定位方法及装置,所述方法包括:获取当前帧图像,提取所述当前帧图像的特征点;将所述当前帧图像输入预设深度学习网络进行语义分割,得到目标语义图像;根据所述目标语义图像确定所述当前帧图像的运动掩模区域;获取所述当前帧图像的深度信息;基于所述目标语义图像和所述深度信息进行运动一致性检测,确定所述当前帧图像的静态特征点集合;根据所述静态特征点集合确定当前状态位姿信息。本发明通过语义分割结果和深度信息进行运动一致性检测,确定图像的静态特征点集合,能够有效提高在动态环境中对位姿估计的精确性和鲁棒性。
-
公开(公告)号:CN112580804B
公开(公告)日:2024-04-05
申请号:CN202011555461.7
申请日:2020-12-23
Applicant: 中国科学院上海微系统与信息技术研究所
IPC: G06N3/082 , G06N3/0464 , G06N3/0495 , G06V10/82
Abstract: 本发明涉及一种目标图像处理模型的确定方法、装置及存储介质,方法包括根据待剪枝图像处理模型的历史剪枝信息和历史精度信息,确定当前剪枝信息;基于当前剪枝信息,对待剪枝图像处理模型进行剪枝处理,得到剪枝后的模型;将样本图像输入剪枝后的模型,进行特征预测处理,得到预测特征信息;根据样本图像的标签信息和预测特征信息,确定剪枝后的模型的精度信息;根据剪枝后的模型的精度信息和当前剪枝信息,确定待剪枝信息;若待剪枝信息满足预设停止剪枝条件,将剪枝后的模型确定为目标图像处理模型。本发明可以减小目标图像处理模型的结构,减少目标图像处理模型所占资源,还可以保证剪枝后的网络模型的精度。
-
公开(公告)号:CN111161314B
公开(公告)日:2024-03-12
申请号:CN201911298738.X
申请日:2019-12-17
Applicant: 中国科学院上海微系统与信息技术研究所
IPC: G06F30/27
Abstract: 本申请涉及目标对象的位置区域确定方法、装置、电子设备及存储介质,该方法通过获取图像序列;获取目标对象在图像序列的当前帧图像中的当前位置区域,并基于当前位置区域确定搜索区域;从当前位置区域确定第一特征信息;第一特征信息包括当前位置区域的语义信息;从搜索区域确定第二特征信息;第二特征信息包括搜索区域的语义信息;基于第一特征信息和第二特征信息确定相似程度值集合;从相似程度值集合确定目标相似程度值;基于目标相似程度值和当前位置区域的尺寸确定目标对象在下一帧图像中的位置区域。如此,通过学习到更高级的语义信息,可以提高对目标对象位置区域跟踪确定的准确度,可以提高目标对象的跟踪精度和鲁棒性。
-
公开(公告)号:CN113326751B
公开(公告)日:2024-02-13
申请号:CN202110547828.9
申请日:2021-05-19
Applicant: 中国科学院上海微系统与信息技术研究所
Abstract: 本发明涉及一种手部3D关键点的标注方法,包括:构建通用手部3D骨架模型;获取待标注手部每根手指均伸直的初始帧图像,构建待标注手部3D骨架模型;获取在不同手势下的若干待标注手部3D骨架姿态;获取待标注手部的当前帧图像以及当前帧图像的初始3D骨架姿态,在当前帧图像中标注出当前手部关键点的2D位置,确定当前帧图像的真实3D骨架姿态,获取当前帧图像中的手部3D关键点;对所述当前手部关键点的2D位置进行光流跟踪,获取下一帧图像的手部关键点的2D位置;重复上述步骤,直到所有图像的手部3D关键点均完成标注。本发明可以减少人工标注的工作量,从而降低人工成本并提高效率,同时可以提高标注精度。(56)对比文件Onur G. Guleryuz 等.Fast Lifting for3D Hand Pose Estimation in AR/VRApplications《.2018 25th IEEEInternational Conference on ImageProcessing (ICIP)》.2018,1-5.Jameel Malik 等.Simultaneous HandPose and Skeleton Bone-Lengths Estimationfrom a Single Depth Image《.arXiv:1712.03121》.2017,1-9.Christian Zimmermann 等.Learning toEstimate 3D Hand Pose from Single RGBImages《.arXiv:1705.01389》.2017,1-9.
-
公开(公告)号:CN111932617B
公开(公告)日:2023-12-22
申请号:CN202010681039.X
申请日:2020-07-15
Applicant: 中国科学院上海微系统与信息技术研究所
IPC: G06F7/544
Abstract: 本发明涉及一种对规则物体实现实时检测定位方法,包括以下步骤:将包含物体的感兴趣区域处理成二值化图像;对所述二值化图像进行积分处理,并通过聚类算法获取聚类中心点;根据所述聚类中心点估计出物体的距离和姿态关系。本发明还涉及一种对规则物体实现实时检测定位系统。本发明能够提高检测的精确度和鲁棒性。
-
公开(公告)号:CN111862234B
公开(公告)日:2023-10-20
申请号:CN202010711704.5
申请日:2020-07-22
Applicant: 中国科学院上海微系统与信息技术研究所
Abstract: 本发明提供一种双目相机自标定方法及系统,包括:1)获取左右原始图像;2)校正左右原始图像;3)从左右校正图像中提取特征点并匹配;4)统计左右图像纵坐标偏差的平均值,若大于对应阈值则修正估计第一参数组,反复迭代修正,直至小于对应阈值;5)找到静态物体;6)处于移动状态时,追踪静态物体的视差及车轮运动信息;7)得到车轮运动距离与静态物体的三维距离变化值的距离偏差,若大于对应阈值则修正估计第二参数组,反复迭代校正,直至小于对应阈值,完成自标定。本发明利用实时图像追踪和车体运动信息,对内外参进行优化标定,完成图像校正工作,为车体提供准确的三维识别数据。
-
公开(公告)号:CN116433639A
公开(公告)日:2023-07-14
申请号:CN202310419749.9
申请日:2023-04-19
Applicant: 中国科学院上海微系统与信息技术研究所 , 安徽爱观视觉科技有限公司
Abstract: 本发明涉及一种基于双目视觉系统的受电弓燃弧检测方法和装置,其中,方法包括:采用双目相机对受电弓进行拍摄,获取双目图像,所述双目图像中包括受电弓与接触网;将所述双目图像送入第一yolov5目标检测模型中进行目标检测,得到受电弓与接触网的接触区域,以及受电弓与接触网的接触点;将所述双目图像送入第二yolov5目标检测模型中进行目标检测,检测出双目图像中的燃弧火花;对检测出双目图像中的燃弧火花进行三维重建,得到燃弧火花在空间的三维坐标;基于所述燃弧火花在空间的三维坐标计算所述燃弧火花和所述受电弓与接触网的接触点的距离,并根据距离滤除错误结果。本发明可以实现实时高精度的燃弧检测。
-
公开(公告)号:CN116380061A
公开(公告)日:2023-07-04
申请号:CN202211614647.4
申请日:2022-12-15
Applicant: 中国科学院上海微系统与信息技术研究所
IPC: G01C21/20 , G01C21/00 , G06V40/10 , G06N3/08 , G06N3/0464
Abstract: 本发明涉及一种移动机器人视听觉融合感知与导航方法,包括以下步骤:对移动机器人的视觉传感器系统与听觉传感器系统进行参数标定;利用视觉传感器系统和标定的参数构建导航栅格地图;使用视觉传感器系统获取交互对象的视频序列,并基于三维卷积和长短期记忆网络的手势识别方法,利用注意力机制和多尺度特征融合,实现以所述视频序列为输入的端到端手势行为识别;从所述视频序列中提取出感兴趣的目标对象并进行跟踪,并利用听觉传感器系统和视觉传感器系统得到具有显著性的目标对象的序列。本发明能够以更加智能和自然的方式与机器人导航系统进行交互。
-
-
-
-
-
-
-
-
-