-
公开(公告)号:CN111612731A
公开(公告)日:2020-09-01
申请号:CN202010249788.5
申请日:2020-04-01
Applicant: 中国科学院上海微系统与信息技术研究所
Abstract: 本申请公开了一种基于双目显微视觉的测量方法、装置、系统及介质,该方法包括获取双目显微视觉系统中经相机标定后的左右相机对应的初始左右图像;基于对极几何约束关系,进行图像校正得到左右图像;对左右图像进行下采样,对所得的左采样图像集中最小分辨率对应层的采样图像中的像素点进行立体匹配以及匹配点传播,并进行逐层采样和立体匹配更新以及插值处理,得到稠密视差结果;之后根据相机参数和稠密视差结果对待测对象进行测量。本申请实施例解决现有技术中宏观尺度下的测量方法等对微观尺度的不适用性和准确性低的问题,所提供的测量方法非常适用于显微场景下的双目测量,能够获得良好的准确性和显微测量精度。
-
公开(公告)号:CN111402309A
公开(公告)日:2020-07-10
申请号:CN202010149137.9
申请日:2020-03-05
Applicant: 中国科学院上海微系统与信息技术研究所
Abstract: 本发明提供一种多目立体相机的校准及深度图像处理方法,包括:在多目相机设备中选取基准相机和待修正相机,并获取相应的基准相机图像和对待修正相机图像;根据所述基准相机图像和对待修正相机图像对所述待修正相机的内参量和外参量进行优化;得到最终的深度图像。本发明的方法利用匹配特征的深度计算结果实现对相机参量的优化,使多个深度图像的交界部分过渡平滑,可以根据优化的参量对未重合部分的深度图像进行进一步的精化调整,并且通过不同双目间的相互约束,保证最终深度结果一致性与稳定性。
-
公开(公告)号:CN109579840A
公开(公告)日:2019-04-05
申请号:CN201811250049.7
申请日:2018-10-25
Applicant: 中国科学院上海微系统与信息技术研究所
Abstract: 本发明涉及一种点线特征融合的紧耦合双目视觉惯性SLAM方法,包括以下步骤:确定相机坐标系与惯性传感器坐标系的变换关系;建立点线特征加IMU跟踪线程,求解初始的立体点线三维坐标,在IMU初始化后,使用IMU预测特征点线的位置,建立正确特征数据关联,结合IMU和点线特征重投影误差项,求解连续帧的位姿变换;建立点线特征加IMU局部光束法平差线程,在局部关键帧窗口中优化点线三维坐标,关键帧位姿以及IMU的状态量;建立点线特征回环检测线程,使用点线特征加权计算词袋模型的得分来检测回环,并进行全局状态量的优化。本发明能够在特征点数目较少以及相机快速运动情况下保证稳定和高精度。
-
公开(公告)号:CN119567244A
公开(公告)日:2025-03-07
申请号:CN202411526399.7
申请日:2024-10-30
Applicant: 中国科学院上海微系统与信息技术研究所
Abstract: 本发明涉及一种模拟眼球交互式视线的生成方法及装置。其中,生成方法包括以下步骤:通过位置传感器获取交互目标的位置,得到交互目标在第一坐标系的坐标Po;根据位置传感器与模拟眼球的位置关系推导第一坐标系与第二坐标系的坐标转换关系,进而基于所述左边转换关系将坐标Po转换为交互目标在第二坐标系的坐标P1;获取各个模拟眼球的视点在第二坐标系的坐标Oi,其中i代表模拟眼球的序号;根据坐标Oi和坐标P1计算获得各个模拟眼球的交互式视线朝向Di。本发明能够准确获得目标与眼球的相对位置并生成交互式视线,使模拟眼球在交互时更加自然。
-
公开(公告)号:CN116309698B
公开(公告)日:2024-06-11
申请号:CN202310038906.1
申请日:2023-01-11
Applicant: 中国科学院上海微系统与信息技术研究所
IPC: G06T7/246 , G06T5/00 , G06N3/045 , G06N3/0464 , G06N3/08
Abstract: 本发明涉及一种基于运动特征弥补引导的多帧光流估计方法,包括以下步骤:提取至少连续两帧的输入图像的图像特征;基于相邻两帧的输入图像的图像特征,采用运动编码器得到初始运动特征;将初始运动特征和历史集成特征输入至MFC单元,所述MFC单元通过交叉注意力得到增强运动特征,并与初始运动特征合并得到集成特征;将所述集成特征输入至迭代模块进行迭代计算,得到最终光流。本发明可以大大改进光流估计在遮挡区域的性能。
-
公开(公告)号:CN118038133A
公开(公告)日:2024-05-14
申请号:CN202410067260.4
申请日:2024-01-17
Applicant: 中国科学院上海微系统与信息技术研究所
IPC: G06V10/764 , G06V10/40 , G06V10/774 , G06V10/80 , G06N3/0464
Abstract: 本发明涉及一种基于多层级分类分支的目标检测方法及系统。其中的目标检测方法包括以下步骤:获取待测样本;利用基于多层级分类分支的目标检测模型对所述待测样本进行检测,获得目标检测结果;所述基于多层级分类分支的目标检测模型包括:特征提取模块,用来提取所述待测样本的特征向量;特征融合模块,用来对所述特征向量进行特征融合获得融合特征向量;预测模块,用来根据所述融合特征向量生成目标检测框和与所述目标检测框对应的多个层级的分类结果,并将所述多个层级的分类结果进行融合计算得到最终分类结果。在现有深度学习的目标检测网络的基础上,通过增加多层级分类分支预测结果的融合计算,有效提升其分类及识别能力。
-
公开(公告)号:CN112966584B
公开(公告)日:2024-04-19
申请号:CN202110223264.3
申请日:2021-02-26
Applicant: 中国科学院上海微系统与信息技术研究所
IPC: G06V10/82 , G06V10/44 , G06V10/774 , G06V40/20 , G06T7/269 , G06N3/0464 , G06N3/09
Abstract: 本发明涉及一种运动感知模型的训练方法、装置、电子设备及存储介质,包括获取训练图像组集合和每一训练图像组对应的标签光流信息,对每一训练图像组进行特征提取处理,确定多个目标特征图集,从每一目标特征图集中,确定每一训练图像组对应的预测光流信息,根据标签光流信息和预测光流信息,确定每一目标特征图集对应的损失信息,基于每一目标特征图集对应的损失信息对当前机器学习模型的参数进行调整,当对当前机器学习模型的参数进行调整的次数大于预设阈值时,将当前机器学习模型确定为运动感知模型,将损失信息对应的模型参数确定为运动感知模型的参数。本申请可以监督中间的特征层的采样所得到感知信息,提高模型输出的运动状态的精确性。
-
公开(公告)号:CN117636282A
公开(公告)日:2024-03-01
申请号:CN202311620329.3
申请日:2023-11-30
Applicant: 中国科学院上海微系统与信息技术研究所
IPC: G06V20/56 , G06V10/80 , G06V10/764 , G06V10/40 , G06V10/774 , G06V10/776 , G06V10/82
Abstract: 本发明涉及一种基于多重约束的栅格占据率估计方法、设备及介质,方法包括:接收车辆周围相机传感器获取的多视角相机图像;将多视角相机图像输入至栅格占据率估计模型中,得到栅格占据率预测结果;其中,栅格占据率估计模型增加了对每个视角的二维重投影监督,能够有效约束对侧不同物体的特征,还设计了基于物体一致性的空间约束,利用周围体素对处理后的当前体素进行语义标注的影响,解决预测三维结果中的异常值问题。本发明能有效提高算法精度及运算速度,提高了栅格占据率的估计效果。
-
公开(公告)号:CN116681759B
公开(公告)日:2024-02-23
申请号:CN202310419746.5
申请日:2023-04-19
Applicant: 中国科学院上海微系统与信息技术研究所
Abstract: 本发明涉及一种基于自监督视觉惯性里程计的相机位姿估计方法,包括:获取多帧图像以及每两帧图像之间的IMU数据;将所述多帧图像和IMU数据输入至网络模型中,得到位姿变换信息和深度信息;其中,所述网络模型基于视惯融合里程计网络构建,在所述视惯融合里程计网络的IMU网络模块前增加基于自注意力机制尺度恢复模块;所述自注意力机制尺度恢复模块用于估计尺度信息。本发明能够提高里程计的准确性。
-
公开(公告)号:CN114882091B
公开(公告)日:2024-02-13
申请号:CN202210476348.2
申请日:2022-04-29
Applicant: 中国科学院上海微系统与信息技术研究所
Abstract: 分类模块用于进行深度边缘语义分类预测;所述本发明涉及一种结合语义边缘的深度估计 语义边缘检测模块用于输出图像的语义边缘分方法,包括:获取待深度估计的图像;将所述图像 类预测。本发明能够提高准确度。输入至训练好的深度学习网络中得到深度预测图和语义边缘预测图;所述深度学习网络包括:共享特征提取模块、深度估计模块、边缘增强权重模块、深度边缘语义分类模块和语义边缘检测模块;所述共享特征提取模块用于提取所述图像中的特征信息,并传输给所述深度估计模块和语义边缘检测模块;所述深度估计模块通过所述语义边缘检测模块输出的语义边缘引导视差平滑,并通过图像双重构的方式进行深度估计;所述边缘增强权重模块基于所述深度估计模块输出的(56)对比文件Jing Liu 等.CollaborativeDeconvolutional Neural Networks for JointDepth Estimation and SemanticSegmentation《.IEEE TRANSACTIONS ON NEURALNETWORKS AND LEARNING SYSTEMS》.2018,第第29卷卷(第第11期期),5655-5666.
-
-
-
-
-
-
-
-
-