-
公开(公告)号:CN119567244A
公开(公告)日:2025-03-07
申请号:CN202411526399.7
申请日:2024-10-30
Applicant: 中国科学院上海微系统与信息技术研究所
Abstract: 本发明涉及一种模拟眼球交互式视线的生成方法及装置。其中,生成方法包括以下步骤:通过位置传感器获取交互目标的位置,得到交互目标在第一坐标系的坐标Po;根据位置传感器与模拟眼球的位置关系推导第一坐标系与第二坐标系的坐标转换关系,进而基于所述左边转换关系将坐标Po转换为交互目标在第二坐标系的坐标P1;获取各个模拟眼球的视点在第二坐标系的坐标Oi,其中i代表模拟眼球的序号;根据坐标Oi和坐标P1计算获得各个模拟眼球的交互式视线朝向Di。本发明能够准确获得目标与眼球的相对位置并生成交互式视线,使模拟眼球在交互时更加自然。
-
公开(公告)号:CN113850145A
公开(公告)日:2021-12-28
申请号:CN202111003611.8
申请日:2021-08-30
Applicant: 中国科学院上海微系统与信息技术研究所
IPC: G06K9/00
Abstract: 本发明涉及一种手眼朝向协同目标定位方法,包括:采集当前场景的图像,并识别出人体区域图像;从人体区域图像中分割出头部区域图像和手部区域图像,并获取头部区域图像对应的深度图像和手部区域图像对应的深度图像;根据头部区域图像及其对应的深度图像,建立当前眼部的空间三维模型,根据手部区域图像及其对应的深度图像,建立当前手部的空间三维模型;根据当前眼部的空间三维模型和当前手部的空间三维模型,获取当前手、眼朝向向量;根据当前眼朝向向量和当前手朝向向量,计算当前待定位目标的空间位置。本发明提供的目标定位方法无需人工操作额外的辅助设备,能够在降低操作难度的同时,提高场景适应性和目标定位的准确性。
-
公开(公告)号:CN112288824B
公开(公告)日:2024-04-12
申请号:CN202011165184.9
申请日:2020-10-27
Applicant: 中国科学院上海微系统与信息技术研究所
Abstract: 本发明公开了一种基于现实场景的长焦相机标定装置及标定方法,所述装置包括测距机构和控制机构;控制机构包括俯仰机构和偏摆机构,俯仰机构设于偏摆机构的上方,俯仰机构包括俯仰组件和和用于测量俯仰角度的俯仰角度测量组件;偏摆机构包括偏摆组件和用于测量偏摆角度的偏摆角度测量组件;测距机构设置于控制机构上,测距机构能够随控制机构同步运动,测距机构用于测量特征点到测距机构的直线距离。本发明方法通过标定装置,获取现实场景中的特征点在同一坐标系下三维坐标,利用这些特征点来完成长焦相机的标定;由于特征点均来自现实场景,因此限制较小,而且这些特征点可以遍布相机的大部分画面,从而具有较好的标定结果。
-
公开(公告)号:CN112288824A
公开(公告)日:2021-01-29
申请号:CN202011165184.9
申请日:2020-10-27
Applicant: 中国科学院上海微系统与信息技术研究所
IPC: G06T7/80
Abstract: 本发明公开了一种基于现实场景的长焦相机标定装置及标定方法,所述装置包括测距机构和控制机构;控制机构包括俯仰机构和偏摆机构,俯仰机构设于偏摆机构的上方,俯仰机构包括俯仰组件和和用于测量俯仰角度的俯仰角度测量组件;偏摆机构包括偏摆组件和用于测量偏摆角度的偏摆角度测量组件;测距机构设置于控制机构上,测距机构能够随控制机构同步运动,测距机构用于测量特征点到测距机构的直线距离。本发明方法通过标定装置,获取现实场景中的特征点在同一坐标系下三维坐标,利用这些特征点来完成长焦相机的标定;由于特征点均来自现实场景,因此限制较小,而且这些特征点可以遍布相机的大部分画面,从而具有较好的标定结果。
-
公开(公告)号:CN116380061A
公开(公告)日:2023-07-04
申请号:CN202211614647.4
申请日:2022-12-15
Applicant: 中国科学院上海微系统与信息技术研究所
IPC: G01C21/20 , G01C21/00 , G06V40/10 , G06N3/08 , G06N3/0464
Abstract: 本发明涉及一种移动机器人视听觉融合感知与导航方法,包括以下步骤:对移动机器人的视觉传感器系统与听觉传感器系统进行参数标定;利用视觉传感器系统和标定的参数构建导航栅格地图;使用视觉传感器系统获取交互对象的视频序列,并基于三维卷积和长短期记忆网络的手势识别方法,利用注意力机制和多尺度特征融合,实现以所述视频序列为输入的端到端手势行为识别;从所述视频序列中提取出感兴趣的目标对象并进行跟踪,并利用听觉传感器系统和视觉传感器系统得到具有显著性的目标对象的序列。本发明能够以更加智能和自然的方式与机器人导航系统进行交互。
-
公开(公告)号:CN113886791A
公开(公告)日:2022-01-04
申请号:CN202111219097.1
申请日:2021-10-19
Applicant: 中国科学院上海微系统与信息技术研究所
IPC: G06F21/32 , G06K9/00 , G06K9/62 , G06F16/58 , G06F16/583 , G06F16/587
Abstract: 本申请实施例所公开的一种身份信息的确定方法、装置、电子设备及存储介质,包括获取用户的待验证面部图像,若待验证面部图像与候选面部图像集合中的任一候选面部图像匹配,基于动态的目标生成第一图像序列;其中,第一图像序列中的每个第一图像包括目标,目标在每个第一图像中的位置是不同的。进而获取用户对应的第二图像序列,该第二图像序列中的每个第二图像是用户注视目标时采集的用户的面部图像,并根据第一图像序列和第二图像序列,确定用户的身份信息。基于本申请实施例通过基于动态的目标随机生成给用户注视的第一图像序列,可以有效防止他人利用静态图片、录制视频等手段欺骗认证系统,可以提高系统的安全性和可靠性。
-
公开(公告)号:CN113850145B
公开(公告)日:2024-10-25
申请号:CN202111003611.8
申请日:2021-08-30
Applicant: 中国科学院上海微系统与信息技术研究所
IPC: G06V40/70 , G06V20/64 , G06V10/26 , G06V10/774
Abstract: 本发明涉及一种手眼朝向协同目标定位方法,包括:采集当前场景的图像,并识别出人体区域图像;从人体区域图像中分割出头部区域图像和手部区域图像,并获取头部区域图像对应的深度图像和手部区域图像对应的深度图像;根据头部区域图像及其对应的深度图像,建立当前眼部的空间三维模型,根据手部区域图像及其对应的深度图像,建立当前手部的空间三维模型;根据当前眼部的空间三维模型和当前手部的空间三维模型,获取当前手、眼朝向向量;根据当前眼朝向向量和当前手朝向向量,计算当前待定位目标的空间位置。本发明提供的目标定位方法无需人工操作额外的辅助设备,能够在降低操作难度的同时,提高场景适应性和目标定位的准确性。
-
-
-
-
-
-