-
公开(公告)号:CN118052841B
公开(公告)日:2025-05-06
申请号:CN202410070464.3
申请日:2024-01-18
Applicant: 中国科学院上海微系统与信息技术研究所
IPC: G06T7/20 , G06T7/10 , G06T7/50 , G06N3/0499 , G06N3/08
Abstract: 本发明涉及一种融合语义的无监督深度估计与视觉里程计方法和系统,其中,方法包括:接收视频序列;将所述视频序列输入至预测模型,得到预测结果;其中,所述预测模型包括:深度估计子网络,用于估计输入的目标图像对应的深度图;位姿估计子网络,用于估计输入的目标图像和源图像之间的相对位姿;语义分割子网络,用于对输入的目标图像和重建目标图像进行语义分割,得到用于构造语义重投影损失的目标图像语义分割结果和重建目标图像语义分割结果;语义掩码模块,用于根据目标图像语义分割结果构造语义掩码;重投影模块,用于根据深度图、相对位姿和语义掩码对源图像进行重投影操作,得到重建目标图像。本发明能够增强重投影损失的效用。
-
公开(公告)号:CN112270688B
公开(公告)日:2024-05-28
申请号:CN202011216784.3
申请日:2020-11-04
Applicant: 中国科学院上海微系统与信息技术研究所
Abstract: 本申请涉及一种前景提取方法、装置、设备或存储介质,该方法包括:获取红外图像序列和可见光图像序列;红外图像序列和可见光图像序列一一对应;对红外图像序列中每帧红外图像进行对比度处理,得到初始掩膜图像序列;将初始掩膜图像序列和可见光图像序列进行串联,得到输入图像序列;根据已训练的特征提取模型对输入图像序列进行特征提取,得到特征张量;根据已训练的长短时记忆网络模型,确定特征张量对应的预测掩膜图像;根据预测掩膜图像和可见光图像,确定前景图像。本申请实施例提供的一种前景提取方法适用于静止或运动的前景物体,包括半透明物体、运动模糊物体和虚焦物体的提取,可以提高前景物体的边缘的提取精度。
-
公开(公告)号:CN116245940A
公开(公告)日:2023-06-09
申请号:CN202310052012.8
申请日:2023-02-02
Applicant: 中国科学院上海微系统与信息技术研究所
Abstract: 本发明涉及一种基于结构差异感知的类别级六自由度物体位姿估计方法,包括:将深度图输入至目标检测分割网络进行识别,并根据识别结果得到物体实例的观测点云,并基于物体实例的观测点云选择目标物体对应的类别先验;提取观测点云和类别先验的特征,得到实例几何特征和类别几何特征;将实例几何特征和类别几何特征输入信息交互增强模块,得到增强的实例几何特征和类别几何特征;再通过所述语义动态融合模块进行语义和几何信息的融合,得到实例融合特征和类别融合特征;基于类别融合特征得到实例NOCS模型;通过匹配网络将实例NOCS模型和观测点云进行匹配,并根据相似性计算得到目标物体的6D位姿和大小。本发明能够提高6D位姿估计的准确性。
-
公开(公告)号:CN114882091A
公开(公告)日:2022-08-09
申请号:CN202210476348.2
申请日:2022-04-29
Applicant: 中国科学院上海微系统与信息技术研究所
Abstract: 本发明涉及一种结合语义边缘的深度估计方法,包括:获取待深度估计的图像;将所述图像输入至训练好的深度学习网络中得到深度预测图和语义边缘预测图;所述深度学习网络包括:共享特征提取模块、深度估计模块、边缘增强权重模块、深度边缘语义分类模块和语义边缘检测模块;所述共享特征提取模块用于提取所述图像中的特征信息,并传输给所述深度估计模块和语义边缘检测模块;所述深度估计模块通过所述语义边缘检测模块输出的语义边缘引导视差平滑,并通过图像双重构的方式进行深度估计;所述边缘增强权重模块基于所述深度估计模块输出的深度预测图的深度边缘形成所述语义边缘检测模块所需要融合的特征结果;所述深度边缘语义分类模块用于进行深度边缘语义分类预测;所述语义边缘检测模块用于输出图像的语义边缘分类预测。本发明能够提高准确度。
-
公开(公告)号:CN111192265B
公开(公告)日:2020-12-01
申请号:CN201911360880.2
申请日:2019-12-25
Applicant: 中国科学院上海微系统与信息技术研究所
Abstract: 本申请公开了一种基于点云的语义实例确定方法、装置、电子设备及存储介质,所述方法包括:将点云输入训练后的编码模块,得到多个点集中每个点集对应的包含集合补充信息和集合关系信息的特征信息;所述编码模块包含区域特征补充模块和区域关系推理模块;所述多个点集中的点的并集为所述点云,至少有两个点集中存在交集;基于训练后的语义实例确定模块对所述每个点集对应的包含集合补充信息和集合关系信息的特征信息进行语义和实例的确定,得到所述点云中每个点的语义标签和实例标签;所述语义标签用于表征所述每个点所属的类别;所述实例标签用于表征所述每个点所属的实例,可以降低稀疏区域的点云分割的错误率。
-
公开(公告)号:CN118052842B
公开(公告)日:2025-03-14
申请号:CN202410070469.6
申请日:2024-01-18
Applicant: 中国科学院上海微系统与信息技术研究所
IPC: G06T7/20 , G06T7/55 , G06T7/70 , G06N3/0464 , G06N3/088
Abstract: 本发明涉及一种基于无纹理加权模块的无监督视觉里程计方法和系统,其中,方法包括:接收单目视频序列;将单目视频序列输入至预测模型,得到预测结果;其中,预测模型包括:深度估计子网络,用于估计输入的目标图像对应的深度图;位姿估计子网络,用于估计输入的目标图像和源图像之间的相对位姿;重投影模块,用于根据深度图和相对位姿对源图像进行重投影操作,得到重建目标图像;无纹理加权模块,用于对目标图像和重建目标图像中无纹理区域的每个像素点赋予不同权重,得到用于构造重投影损失的加权目标图像和加权重建目标图像。本发明能够减少场景中无纹理区域对无监督视觉里程计中重投影损失的影响。
-
公开(公告)号:CN118334389B
公开(公告)日:2024-12-24
申请号:CN202410497467.5
申请日:2024-04-24
Applicant: 中国科学院上海微系统与信息技术研究所
IPC: G06V10/75 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明涉及一种基于频域自适应滤波优化的鲁棒立体匹配方法和装置,方法包括:获取双目图像;将获取的双目图像输入至立体匹配模型中,完成像素点的匹配得到视差图;立体匹配模型包括:特征提取网络,用于提取双目图像的特征,得到左图特征和右图特征;自适应滤波模块,用于将左图特征和右图特征转换到频域,并对左图特征和右图特征进行自适应滤波,并将滤波后的左图特征和右图特征重新变换到空间域完成代价体构建;频率补偿模块,用于对左图频域特征进行频率补偿,并与代价体聚合后的聚合特征进行融合,得到融合特征;视差预测模块,用于根据融合特征进行视差预测,完成像素点的匹配得到视差图。本发明能够提升立体匹配模型对校正误差的鲁棒性。
-
公开(公告)号:CN118052842A
公开(公告)日:2024-05-17
申请号:CN202410070469.6
申请日:2024-01-18
Applicant: 中国科学院上海微系统与信息技术研究所
IPC: G06T7/20 , G06T7/55 , G06T7/70 , G06N3/0464 , G06N3/088
Abstract: 本发明涉及一种基于无纹理加权模块的无监督视觉里程计方法和系统,其中,方法包括:接收单目视频序列;将单目视频序列输入至预测模型,得到预测结果;其中,预测模型包括:深度估计子网络,用于估计输入的目标图像对应的深度图;位姿估计子网络,用于估计输入的目标图像和源图像之间的相对位姿;重投影模块,用于根据深度图和相对位姿对源图像进行重投影操作,得到重建目标图像;无纹理加权模块,用于对目标图像和重建目标图像中无纹理区域的每个像素点赋予不同权重,得到用于构造重投影损失的加权目标图像和加权重建目标图像。本发明能够减少场景中无纹理区域对无监督视觉里程计中重投影损失的影响。
-
公开(公告)号:CN116245940B
公开(公告)日:2024-04-05
申请号:CN202310052012.8
申请日:2023-02-02
Applicant: 中国科学院上海微系统与信息技术研究所
Abstract: 本发明涉及一种基于结构差异感知的类别级六自由度物体位姿估计方法,包括:将深度图输入至目标检测分割网络进行识别,并根据识别结果得到物体实例的观测点云,并基于物体实例的观测点云选择目标物体对应的类别先验;提取观测点云和类别先验的特征,得到实例几何特征和类别几何特征;将实例几何特征和类别几何特征输入信息交互增强模块,得到增强的实例几何特征和类别几何特征;再通过所述语义动态融合模块进行语义和几何信息的融合,得到实例融合特征和类别融合特征;基于类别融合特征得到实例NOCS模型;通过匹配网络将实例NOCS模型和观测点云进行匹配,并根据相似性计算得到目标物体的6D位姿和大小。本发明能够提高6D位姿估计的准确性。
-
公开(公告)号:CN117710678A
公开(公告)日:2024-03-15
申请号:CN202311814465.6
申请日:2023-12-27
Applicant: 中国科学院上海微系统与信息技术研究所
IPC: G06V10/26 , G06V20/70 , G06V10/25 , G06V10/82 , G06V10/52 , G06T5/50 , G06N3/0464 , G06N3/045 , G06N3/0442 , G06N3/09
Abstract: 本发明涉及一种基于语义‑实例‑全景关联约束的全景分割方法,包括:接收待全景分割的图片;将待全景分割的图片输入至全景分割模型,得到全景分割结果;其中,全景分割模型包括:特征提取部分,用于对输入的图片进行多尺度的特征提取,得到语义多尺度特征和实例多尺度特征;门控编码模块,用于通过双向信息交互增强语义多尺度特征和实例多尺度特征,得到强化语义多尺度特征和强化实例多尺度特征;语义头模块,用于对强化语义多尺度特征进行预测,得到语义预测结果;实例头模块,用于对强化实例多尺度特征进行预测,得到实例预测结果;融合模块,用于将语义预测结果和实例预测结果进行融合得到全景分割结果。本发明提高了分割精度与效率。
-
-
-
-
-
-
-
-
-