-
公开(公告)号:CN111192265A
公开(公告)日:2020-05-22
申请号:CN201911360880.2
申请日:2019-12-25
Applicant: 中国科学院上海微系统与信息技术研究所
Abstract: 本申请公开了一种基于点云的语义实例确定方法、装置、电子设备及存储介质,所述方法包括:将点云输入训练后的编码模块,得到多个点集中每个点集对应的包含集合补充信息和集合关系信息的特征信息;所述编码模块包含区域特征补充模块和区域关系推理模块;所述多个点集中的点的并集为所述点云,至少有两个点集中存在交集;基于训练后的语义实例确定模块对所述每个点集对应的包含集合补充信息和集合关系信息的特征信息进行语义和实例的确定,得到所述点云中每个点的语义标签和实例标签;所述语义标签用于表征所述每个点所属的类别;所述实例标签用于表征所述每个点所属的实例,可以降低稀疏区域的点云分割的错误率。
-
公开(公告)号:CN109785377A
公开(公告)日:2019-05-21
申请号:CN201910021366.X
申请日:2019-01-09
Applicant: 中国科学院上海微系统与信息技术研究所
Abstract: 本发明提供一种弓网状态的检测方法,由双目视频同步采集设备获取所述接触线与所述受电弓之相交区域的第一图像和第二图像,进而将第一图像和第二图像对准,进行立体匹配,获取匹配的对应点,通过计算所述对应点的视差,获得视差信息和视差图,而后计算得到深度信息并进行三维重建,进而获得所述弓网的状态。与现有技术相比,弓网状态的检测仅采用双目视频同步采集设备,可不安装其它补偿传感器,如激光雷达等,即可实现准确获得弓网的状态,装置结构简单,成本低且效果好。此外,通过本发明提供的弓网状态的检测方法和检测装置可实现连续且不间断地对弓网状态进行自动检测,能有效降低工作人员劳动强度,提高工作效率。
-
公开(公告)号:CN114648737B
公开(公告)日:2024-12-03
申请号:CN202011505571.2
申请日:2020-12-18
Applicant: 安徽爱观视觉科技有限公司 , 中国科学院上海微系统与信息技术研究所
IPC: G06V20/54
Abstract: 本发明公开一种地平面识别方法及装置,包括:对当前周期的左右目原始图像预处理得到第一稠密视差图;获取当前周期位姿参数;根据所述当前位姿参数对待旋转图像和所述第一稠密视差图仿射变换得到已旋转图像和第二稠密视差图,所述待旋转图像为预先设定的左目原始图像或右目原始图像;对所述已旋转图像和所述第二稠密视差图图像识别,得到地平面区域。本方法适用性强,可在车体震动的情况下,能够准确地对地平面识别,且在此基础上简化了基于视差图的检测算法,进一步提高了检测速度,可广泛应用于地面无人平台或自动驾驶辅助系统等。
-
公开(公告)号:CN118351252A
公开(公告)日:2024-07-16
申请号:CN202410417649.7
申请日:2024-04-09
Applicant: 中国科学院上海微系统与信息技术研究所
Abstract: 本发明涉及一种基于先验深度与高斯溅射模型融合的场景三维重建方法,包括:获取多视角下的场景图像;将多视角下的场景图像输入至场景三维重建模型中,完成场景的三维重建;其中,场景三维重建模型包括:单目深度估计网络与视觉里程计,用于基于多视角下的场景图像得到多视角下场景图像的稠密先验深度与相机位姿;点云生成模块,用于使用稠密先验深度与相机位姿生成世界坐标系下的空间点云,并将空间点云初始化为一组具有不透明度和球面谐波的三维高斯体;三维高斯优化模块,用于使用先验深度引导的自适应密度控制策略对三维高斯体的空间分布进行优化调整,完成场景的三维重建。本发明缓解观测数据不足导致的重建模糊问题。
-
公开(公告)号:CN118092383A
公开(公告)日:2024-05-28
申请号:CN202410132143.1
申请日:2024-01-31
Applicant: 中国科学院上海微系统与信息技术研究所
IPC: G05B23/02
Abstract: 本发明涉及一种车载监测系统实时故障定位方法及系统。其中,故障定位方法包括以下步骤:采集监测数据;获取TCMS报文,提取所述TCMS报文的编码时间和TCMS数据;根据所述编码时间计算监测系统与TCMS系统的时间差;判断所述时间差是否小于设定值,如果小于所述设定值则将所述TCMS数据同步到所述监测系统的配准时刻,否则根据所述监测数据对所述TCMS数据进行补偿;将所述监测数据和所述TCMS数据进行融合,并根据融合后的数据进行故障定位。本发明能够提高轨道交通车载监测系统实时故障定位的精度。
-
公开(公告)号:CN118052841A
公开(公告)日:2024-05-17
申请号:CN202410070464.3
申请日:2024-01-18
Applicant: 中国科学院上海微系统与信息技术研究所
IPC: G06T7/20 , G06T7/10 , G06T7/50 , G06N3/0499 , G06N3/08
Abstract: 本发明涉及一种融合语义的无监督深度估计与视觉里程计方法和系统,其中,方法包括:接收视频序列;将所述视频序列输入至预测模型,得到预测结果;其中,所述预测模型包括:深度估计子网络,用于估计输入的目标图像对应的深度图;位姿估计子网络,用于估计输入的目标图像和源图像之间的相对位姿;语义分割子网络,用于对输入的目标图像和重建目标图像进行语义分割,得到用于构造语义重投影损失的目标图像语义分割结果和重建目标图像语义分割结果;语义掩码模块,用于根据目标图像语义分割结果构造语义掩码;重投影模块,用于根据深度图、相对位姿和语义掩码对源图像进行重投影操作,得到重建目标图像。本发明能够增强重投影损失的效用。
-
公开(公告)号:CN118037801A
公开(公告)日:2024-05-14
申请号:CN202410109880.X
申请日:2024-01-25
Applicant: 中国科学院上海微系统与信息技术研究所
Abstract: 本发明涉及一种双目图像的立体匹配方法,包括以下步骤:获取双目图像;采用立体匹配模型对所述双目图像进行分析获得视差估计;所述立体匹配模型包括:视差估计网络,用来提取所述双目图像的多尺度双目融合特征,并根据所述双目融合特征预测视差估计;光谱转换网络,用来分别提取所述双目图像不同视角的多尺度单目特征进而生成单目伪图像,且在任一尺度的多尺度单目特征提取后嵌入特征交互模块对所述任一尺度的所述单目特征进行优化;所述视差估计网络和所述光谱转换网络通过所述单目伪图像和所述视差估计来调整网络参数。本发明能够增强图像域差异较大区域的特征感知,获得更为精确的立体匹配结果。
-
公开(公告)号:CN112967228B
公开(公告)日:2024-04-26
申请号:CN202110146441.2
申请日:2021-02-02
Applicant: 中国科学院上海微系统与信息技术研究所
IPC: G06F7/00
Abstract: 本发明涉及一种目标光流信息的确定方法、装置、电子设备及存储介质,其中,方法包括分别确定目标图像与相邻两帧图像间的光流信息集以及目标图像与相邻两帧图像对应的相机位姿信息集,根据光流信息集和相机位姿信息集,确定目标图像中对象对应的位置信息集,根据相机位姿信息集和位置信息集,确定对象在相邻两帧图像中的第一映射信息集,根据位置信息集,确定对象在目标图像中的第二映射信息集,根据光流信息集、第一映射信息集和第二映射信息集,确定目标光流信息。基于本发明实施例可以提高确定运动物体的位置信息的精确度,还可以提高确定物体运动状态的准确性。
-
公开(公告)号:CN112419361B
公开(公告)日:2024-04-05
申请号:CN202011308457.0
申请日:2020-11-20
Applicant: 中国科学院上海微系统与信息技术研究所
Abstract: 本申请涉及一种目标追踪方法和仿生视觉装置,该方法包括:获取当前帧的第一图像;第一图像是通过仿生视觉成像单元得到的;对第一图像进行对象位置检测,得到第一图像中对象的第一位置信息;基于第一位置信息确定第一追踪区域和特征区域;在下一帧的第一图像中,确定与第一追踪区域相匹配的第一目标追踪区域;基于特征区域对第一目标追踪区域进行目标检测,得到下一帧的第一图像中对象的第一目标位置信息。本申请通过对采集的图像进行处理来模拟相机视线的变化,实现目标的追踪,不需要设置云台,如此可以降低装置成本,同时可以简化三维感知运算过程。
-
公开(公告)号:CN111931782B
公开(公告)日:2024-03-01
申请号:CN202010808133.7
申请日:2020-08-12
Applicant: 中国科学院上海微系统与信息技术研究所
IPC: G06V10/26 , G06V10/44 , G06V10/764 , G06V20/70
Abstract: 本发明提供一种语义分割方法、系统、介质及装置,所述方法包括以下步骤:获取需要语义分割的图片,记录所述图片的尺寸为H×W×M,H表示图像高度,W表示图像宽度,M表示通道数;对所述图片进行边缘处理获得边缘连通图S;对所述图片基于预先训练好的语义分割模型i进行语义分割;生成语义标签图Gi和语义概率图Pi;根据所述边缘连通图S,生成像素为0的四邻域连通集合F,遍历F中的每个连通域k分别找出对应于每个连通域k平均信息熵最小的语义分割模型imin,确定连通域k内所有像素的最终语义标签其中(h,w)∈k。本发明的一种语义分(56)对比文件Ruijun Shu等.CSF: Close d-mask-guided semantic fusion method for semanticperception of unknown scenes.PatternRecognition Letters.2022,第101-107页.Jingang Tan等.HCFS3D: Hierarchicalcoupled feature selection network for 3Dsemantic and instance segmentation.Imageand Vision Computing.2021,第1-12页.
-
-
-
-
-
-
-
-
-