-
公开(公告)号:CN114973388B
公开(公告)日:2025-04-11
申请号:CN202210484547.8
申请日:2022-05-06
Applicant: 中国科学院上海微系统与信息技术研究所
Abstract: 本发明涉及一种同时估计眼部视线和面部视线的视线估计方法,包括以下步骤:获取左眼图像、右眼图像和面部图像;分别对所述左眼图像、右眼图像和面部图像进行标准化坐标系处理;将标准化处理后的所述左眼图像、右眼图像和面部图像输入至视线评估模型,输出预测的眼部视线和面部视线;所述视线评估模型包括:特征提取层、特征信息转换层、第一特征交流层、第二特征交流层、第一全连接层和第二全连接层。本发明可以同时预测眼部视线和面部视线。
-
公开(公告)号:CN114648737B
公开(公告)日:2024-12-03
申请号:CN202011505571.2
申请日:2020-12-18
Applicant: 安徽爱观视觉科技有限公司 , 中国科学院上海微系统与信息技术研究所
IPC: G06V20/54
Abstract: 本发明公开一种地平面识别方法及装置,包括:对当前周期的左右目原始图像预处理得到第一稠密视差图;获取当前周期位姿参数;根据所述当前位姿参数对待旋转图像和所述第一稠密视差图仿射变换得到已旋转图像和第二稠密视差图,所述待旋转图像为预先设定的左目原始图像或右目原始图像;对所述已旋转图像和所述第二稠密视差图图像识别,得到地平面区域。本方法适用性强,可在车体震动的情况下,能够准确地对地平面识别,且在此基础上简化了基于视差图的检测算法,进一步提高了检测速度,可广泛应用于地面无人平台或自动驾驶辅助系统等。
-
公开(公告)号:CN118092383A
公开(公告)日:2024-05-28
申请号:CN202410132143.1
申请日:2024-01-31
Applicant: 中国科学院上海微系统与信息技术研究所
IPC: G05B23/02
Abstract: 本发明涉及一种车载监测系统实时故障定位方法及系统。其中,故障定位方法包括以下步骤:采集监测数据;获取TCMS报文,提取所述TCMS报文的编码时间和TCMS数据;根据所述编码时间计算监测系统与TCMS系统的时间差;判断所述时间差是否小于设定值,如果小于所述设定值则将所述TCMS数据同步到所述监测系统的配准时刻,否则根据所述监测数据对所述TCMS数据进行补偿;将所述监测数据和所述TCMS数据进行融合,并根据融合后的数据进行故障定位。本发明能够提高轨道交通车载监测系统实时故障定位的精度。
-
公开(公告)号:CN112102401B
公开(公告)日:2024-05-28
申请号:CN202010992950.2
申请日:2020-09-21
Applicant: 中国科学院上海微系统与信息技术研究所
Abstract: 本申请涉及计算机视觉技术领域,尤其涉及一种目标定位方法、装置、系统、设备及存储介质,包括:通过仿生复眼上获取第一图像集合;根据所述第一图像集合确定定位子眼集合;在所述定位子眼集合确定出至少一对双目定位子眼;获取所述双目定位子眼中每个定位子眼的子眼内参数和子眼间外参数;根据所述子眼内参数和所述子眼间外参数确定所述目标对象在定位子眼的相机坐标系中的位置坐标数据;根据所述相对位置坐标数据确定所述目标对象在所述目标子眼的相机坐标系中的定位结果。基于多相机式仿生曲面复眼获取目标的定位图像,结合复眼多通道成像的结构特性和双目视觉定位方法,避免边缘像素畸变对定位造成的偏差,实现了高精度的大视场定位。
-
公开(公告)号:CN118037801A
公开(公告)日:2024-05-14
申请号:CN202410109880.X
申请日:2024-01-25
Applicant: 中国科学院上海微系统与信息技术研究所
Abstract: 本发明涉及一种双目图像的立体匹配方法,包括以下步骤:获取双目图像;采用立体匹配模型对所述双目图像进行分析获得视差估计;所述立体匹配模型包括:视差估计网络,用来提取所述双目图像的多尺度双目融合特征,并根据所述双目融合特征预测视差估计;光谱转换网络,用来分别提取所述双目图像不同视角的多尺度单目特征进而生成单目伪图像,且在任一尺度的多尺度单目特征提取后嵌入特征交互模块对所述任一尺度的所述单目特征进行优化;所述视差估计网络和所述光谱转换网络通过所述单目伪图像和所述视差估计来调整网络参数。本发明能够增强图像域差异较大区域的特征感知,获得更为精确的立体匹配结果。
-
公开(公告)号:CN112967228B
公开(公告)日:2024-04-26
申请号:CN202110146441.2
申请日:2021-02-02
Applicant: 中国科学院上海微系统与信息技术研究所
IPC: G06F7/00
Abstract: 本发明涉及一种目标光流信息的确定方法、装置、电子设备及存储介质,其中,方法包括分别确定目标图像与相邻两帧图像间的光流信息集以及目标图像与相邻两帧图像对应的相机位姿信息集,根据光流信息集和相机位姿信息集,确定目标图像中对象对应的位置信息集,根据相机位姿信息集和位置信息集,确定对象在相邻两帧图像中的第一映射信息集,根据位置信息集,确定对象在目标图像中的第二映射信息集,根据光流信息集、第一映射信息集和第二映射信息集,确定目标光流信息。基于本发明实施例可以提高确定运动物体的位置信息的精确度,还可以提高确定物体运动状态的准确性。
-
公开(公告)号:CN112101547B
公开(公告)日:2024-04-16
申请号:CN202010964152.9
申请日:2020-09-14
Applicant: 中国科学院上海微系统与信息技术研究所
IPC: G06N3/082 , G06N3/0464 , G06N3/0495 , G06V10/82
Abstract: 本申请实施例所公开的一种对网络模型的剪枝方法、装置、电子设备及存储介质,包括获取训练图像集和当前网络模型,将训练图像输入当前网络模型中,根据当前网络模型的输出确定多个卷积层中每个卷积层对应的参数,基于每个卷积层对应的预设剪枝率,对每个卷积层对应的参数进行衰减处理,得到衰减参数,若衰减参数与预设阈值的差值在预设区间内,剔除卷积层中与衰减参数对应的参数,得到剪枝后的网络模型。基于本申请实施例,通过对卷积层对应参数进行衰减处理,迫使待剔除参数的卷积层对应的参数学习的知识转移,在减少参数量的同时,不增加训练负担,并且可以保证网络模型的识别准确率。
-
公开(公告)号:CN112419361B
公开(公告)日:2024-04-05
申请号:CN202011308457.0
申请日:2020-11-20
Applicant: 中国科学院上海微系统与信息技术研究所
Abstract: 本申请涉及一种目标追踪方法和仿生视觉装置,该方法包括:获取当前帧的第一图像;第一图像是通过仿生视觉成像单元得到的;对第一图像进行对象位置检测,得到第一图像中对象的第一位置信息;基于第一位置信息确定第一追踪区域和特征区域;在下一帧的第一图像中,确定与第一追踪区域相匹配的第一目标追踪区域;基于特征区域对第一目标追踪区域进行目标检测,得到下一帧的第一图像中对象的第一目标位置信息。本申请通过对采集的图像进行处理来模拟相机视线的变化,实现目标的追踪,不需要设置云台,如此可以降低装置成本,同时可以简化三维感知运算过程。
-
公开(公告)号:CN111931782B
公开(公告)日:2024-03-01
申请号:CN202010808133.7
申请日:2020-08-12
Applicant: 中国科学院上海微系统与信息技术研究所
IPC: G06V10/26 , G06V10/44 , G06V10/764 , G06V20/70
Abstract: 本发明提供一种语义分割方法、系统、介质及装置,所述方法包括以下步骤:获取需要语义分割的图片,记录所述图片的尺寸为H×W×M,H表示图像高度,W表示图像宽度,M表示通道数;对所述图片进行边缘处理获得边缘连通图S;对所述图片基于预先训练好的语义分割模型i进行语义分割;生成语义标签图Gi和语义概率图Pi;根据所述边缘连通图S,生成像素为0的四邻域连通集合F,遍历F中的每个连通域k分别找出对应于每个连通域k平均信息熵最小的语义分割模型imin,确定连通域k内所有像素的最终语义标签其中(h,w)∈k。本发明的一种语义分(56)对比文件Ruijun Shu等.CSF: Close d-mask-guided semantic fusion method for semanticperception of unknown scenes.PatternRecognition Letters.2022,第101-107页.Jingang Tan等.HCFS3D: Hierarchicalcoupled feature selection network for 3Dsemantic and instance segmentation.Imageand Vision Computing.2021,第1-12页.
-
公开(公告)号:CN112766097B
公开(公告)日:2024-02-13
申请号:CN202110015600.5
申请日:2021-01-06
Applicant: 中国科学院上海微系统与信息技术研究所
IPC: G06V20/40 , G06V10/774 , G06V10/764 , G06V10/82 , G06N3/04 , G06N3/08
Abstract: 本发明涉及一种视线识别模型的训练方法、视线识别方法、装置及设备,方法包括获取样本图像集,样本图像集包括含有第一区域和第二区域的样本图像,将样本图像输入预设机器学习模型,进行视线识别处理,得到第一区域对应的第一视线信息以及第二区域对应的第二视线信息,基于第一视线信息,确定第二区域对应的第三视线信息,基于第二视线信息和第三视线信息,确定第一损失信息,根据第一损失信息,确定损失信息,基于损失信息调整预设机器学习模型中的模型参数,至损失信息满足预设条件,将满足预设条件时的预设机器学习模型作为视线识别模(56)对比文件Zhang Xiao lin等.CooperativeMovements of Binocular Motor System.2008IEEE International Conference onAutomation Science and Engineering.2008,第321-327页.张晓林.仿生双眼的立体视控制系统.电子设计工程.2018,第26卷(第6期),第1-6页.房爱青.基于视线跟踪的人机交互感知机制的研究.中国优秀硕士学位论文全文数据库 信息科技辑.2018,(第12期),第I138-1364页.Andronicus A. Akinyelu等.Convolutional Neural Network-BasedMethods for Eye Gaze Estimation: ASurvey.IEEE Access.2020,第8卷第142581-142605页.
-
-
-
-
-
-
-
-
-