一种目标追踪方法和仿生视觉装置

    公开(公告)号:CN112419361B

    公开(公告)日:2024-04-05

    申请号:CN202011308457.0

    申请日:2020-11-20

    Abstract: 本申请涉及一种目标追踪方法和仿生视觉装置,该方法包括:获取当前帧的第一图像;第一图像是通过仿生视觉成像单元得到的;对第一图像进行对象位置检测,得到第一图像中对象的第一位置信息;基于第一位置信息确定第一追踪区域和特征区域;在下一帧的第一图像中,确定与第一追踪区域相匹配的第一目标追踪区域;基于特征区域对第一目标追踪区域进行目标检测,得到下一帧的第一图像中对象的第一目标位置信息。本申请通过对采集的图像进行处理来模拟相机视线的变化,实现目标的追踪,不需要设置云台,如此可以降低装置成本,同时可以简化三维感知运算过程。

    视线识别模型的训练方法、视线识别方法、装置及设备

    公开(公告)号:CN112766097B

    公开(公告)日:2024-02-13

    申请号:CN202110015600.5

    申请日:2021-01-06

    Abstract: 本发明涉及一种视线识别模型的训练方法、视线识别方法、装置及设备,方法包括获取样本图像集,样本图像集包括含有第一区域和第二区域的样本图像,将样本图像输入预设机器学习模型,进行视线识别处理,得到第一区域对应的第一视线信息以及第二区域对应的第二视线信息,基于第一视线信息,确定第二区域对应的第三视线信息,基于第二视线信息和第三视线信息,确定第一损失信息,根据第一损失信息,确定损失信息,基于损失信息调整预设机器学习模型中的模型参数,至损失信息满足预设条件,将满足预设条件时的预设机器学习模型作为视线识别模(56)对比文件Zhang Xiao lin等.CooperativeMovements of Binocular Motor System.2008IEEE International Conference onAutomation Science and Engineering.2008,第321-327页.张晓林.仿生双眼的立体视控制系统.电子设计工程.2018,第26卷(第6期),第1-6页.房爱青.基于视线跟踪的人机交互感知机制的研究.中国优秀硕士学位论文全文数据库 信息科技辑.2018,(第12期),第I138-1364页.Andronicus A. Akinyelu等.Convolutional Neural Network-BasedMethods for Eye Gaze Estimation: ASurvey.IEEE Access.2020,第8卷第142581-142605页.

    一种图像传感器和加速度计的同步标定装置及方法

    公开(公告)号:CN113624228B

    公开(公告)日:2024-01-26

    申请号:CN202110843322.2

    申请日:2021-07-26

    Abstract: 本发明涉及一种图像传感器和加速度计的同步标定装置及方法,装置包括:托架,用于放置加速度计和图像传感器;复合弹簧机构,一端与托架刚性相连,另一端与基座上的固定端相连,与托架配合形成弹簧振子;平面刻度,水平放置使得图像传感器在运动过程中能够获取平面刻度的图像;数据采集模块,用于记录加速度计的基准时间和图像传感器的图像时间戳,同时获取托架重心的位移数据和加速度数据,并建立位移数据与图像时间戳的对应关系以及加速度数据与加速度计基准时间的对应关系;计算模块,用于拟合位移函数和加速度函数,并基于拟合函数及相位差关系建立图像传感器与加速度计之间

    基于特征级无监督域适应网络的语义分割方法

    公开(公告)号:CN116310313A

    公开(公告)日:2023-06-23

    申请号:CN202310061744.3

    申请日:2023-01-17

    Abstract: 本发明涉及一种基于特征级无监督域适应网络的语义分割方法,包括以下步骤:获取图像数据;将所述图像数据输入至特征级无监督域适应网络,实现对所述图像数据的分割效果可视化,所述特征级无监督域适应网络为一个包含三个共享权重分支的自训练网络,所述自训练网络包括源分支部分、目标分支部分和目标‑源分支部分;所述源分支部分用于学习源域内分布,所述目标分支部分用于学习目标域内分布,所述目标‑源分支部分用于在特征级对齐所述源域和目标域之间的域间分布。本发明能够有效增强域适应能力,在目标域数据集上实现了更好的分割效果。

    一种多IMU外参标定方法
    66.
    发明公开

    公开(公告)号:CN116295525A

    公开(公告)日:2023-06-23

    申请号:CN202310252703.2

    申请日:2023-03-16

    Abstract: 本发明涉及一种多IMU外参标定方法,包括:构建IMU输出模型;标定IMU阵列上各个IMU的随机游走和噪声;录制IMU阵列数据;从IMU阵列中任取一个IMU作为基准IMU,将基准IMU的坐标系作为基准坐标系,建立基准IMU与其余待标定IMU之间关于旋转四元数的非线性最小二乘问题,并求解;根据标定完成的相对旋转外参,生成其余待标定IMU的虚拟角速度观测值;根据其余待标定IMU的虚拟角速度观测值,建立基准IMU与其余待标定IMU之间关于平移的非线性最小二乘问题,并求解。本发明不依赖于环境和外部传感器,可快速完成标定。

    一种瞳孔中心位置数据的确定方法、装置及存储介质

    公开(公告)号:CN113729616B

    公开(公告)日:2022-10-14

    申请号:CN202111023640.0

    申请日:2021-09-01

    Abstract: 本申请实施例所公开的一种瞳孔中心位置数据的确定方法、装置及存储介质,包括获取眼球中心对应的眼球位置数据、瞳孔中心对应的瞳孔参考位置数据、第一瞳孔候选区域和第二瞳孔候选区域,从第一瞳孔候选区域中确定第一候选位置数据集合,从第二瞳孔候选区域中确定第二候选位置数据集合,基于眼球位置数据、瞳孔参考位置数据、第一候选位置数据集合和第二候选位置数据集合,确定瞳孔中心位置数据。本申请实施例基于双眼视线的内在关系从候选位置数据组集合中确定视线交汇的候选位置数据作为瞳孔中心位置数据,可以提升双眼视线估计精度。

    一种基于伪标签的视线估计方法
    68.
    发明公开

    公开(公告)号:CN114973356A

    公开(公告)日:2022-08-30

    申请号:CN202210484571.1

    申请日:2022-05-06

    Abstract: 本发明涉及一种基于伪标签的视线估计方法,包括以下步骤:获取面部图像;将所述面部图像输入至训练好的视线评估模型中进行预测得到预测视线;其中,所述视线评估模型在训练时,使用少量有标签的真实训练集对模型进行训练,得到预训练模型,根据增加了随机失活层的所述预训练模型对无标签的数据打上伪标签,计算所述伪标签的不确定值,并保留所述不确定值小于阈值的伪标签对应的数据,将保留的伪标签对应的数据和真实训练集一起重新训练模型,如此循环迭代直至训练完毕,得到所述视线评估模型。本发明大大减轻了视线估计对人工标签的依赖性。

    一种手眼朝向协同目标定位方法

    公开(公告)号:CN113850145A

    公开(公告)日:2021-12-28

    申请号:CN202111003611.8

    申请日:2021-08-30

    Abstract: 本发明涉及一种手眼朝向协同目标定位方法,包括:采集当前场景的图像,并识别出人体区域图像;从人体区域图像中分割出头部区域图像和手部区域图像,并获取头部区域图像对应的深度图像和手部区域图像对应的深度图像;根据头部区域图像及其对应的深度图像,建立当前眼部的空间三维模型,根据手部区域图像及其对应的深度图像,建立当前手部的空间三维模型;根据当前眼部的空间三维模型和当前手部的空间三维模型,获取当前手、眼朝向向量;根据当前眼朝向向量和当前手朝向向量,计算当前待定位目标的空间位置。本发明提供的目标定位方法无需人工操作额外的辅助设备,能够在降低操作难度的同时,提高场景适应性和目标定位的准确性。

Patent Agency Ranking