一种基于注视模式的驾驶员注视方向隐式校准方法及装置

    公开(公告)号:CN115690754A

    公开(公告)日:2023-02-03

    申请号:CN202211429581.1

    申请日:2022-11-15

    Abstract: 本发明提供一种基于注视模式的驾驶员注视方向隐式校准方法及装置。方法包括:获取序列化的驾驶员注视特征数据;对所述头部姿态数据进行全局聚类进行注视区域估计;对驾驶员头部姿态在注视区域之间的运动轨迹片段进行选择获取注视模式数据;将真实轨迹的注视方向点投影至虚拟轨迹上;在注视特征数据与注视方向点对之间建立注视估计模型,基于映射参数将注视特征数据映射至校准后的注视方向与注视点。本发明无需驾驶员任何协作,能够在短暂的正常驾驶过程中隐式地提取出驾驶员注视模式数据,无监督在线训练注视方向估计模型,自动调整模型参数,使得注视估计模型在环境发生变化后仍能快速准确估计驾驶员注视方向。

    一种面向视野缺损人群的分区域人眼视线校准方法

    公开(公告)号:CN119359599A

    公开(公告)日:2025-01-24

    申请号:CN202411394567.1

    申请日:2024-10-08

    Abstract: 本发明提供一种面向视野缺损人群的分区域人眼视线校准方法,用于视野缺损人群使用头戴式或遥测式视线追踪设备时的精确视线落点估计。本发明方法包括初始校准、视野区域划分、分区域校准等步骤。初始校准,通过视野计和网格对视野缺损人群进行视野测量,得到大致的可见区域和不可见区域,并对正常视野进行映射校准。视野区域划分,获取注视点分布图,根据注视点分布情况,将视野区域扫描合并为正常视野、扭曲视野、不可见视野。分区域校准,定义不可见视野为视野边界,并对正常视野和扭曲视野分别进行校准。本发明解决了不同应用场景下视野缺损人群的视线校准问题,实现了对视野缺损人群真实视野的全区域划分,具有较高的准确度和较好的鲁棒性。

    一种基于CNN和Transformer混合结构的水下图像增强方法

    公开(公告)号:CN117670687A

    公开(公告)日:2024-03-08

    申请号:CN202311731887.7

    申请日:2023-12-15

    Abstract: 本发明公开了一种基于CNN和Transformer混合结构的水下图像增强方法,该发明基于深度学习技术实现,公开了一种水下图像增强网络。所提出的图像增强方法包括区域化两阶段视觉Transformer模块与全尺度特征融合模块两个核心模块,区域化两阶段视觉Transformer模块针对水下图像的退化是不均匀的这一特点,在全局阶段获得每个区域的感知参考权重,并将权重与特征区域相乘。在区域阶段这些特征区域独立地对跨通道维度的依赖性进行建模。全尺度特征融合模块通过特征融合和通道调整实现了充分利用全尺度信息。在所设计的区域化两阶段视觉Transformer模块与全尺度特征融合模块的共同作用下,本文方法能够充分的提取图像的特征,鲁棒、稳定地提高恶劣环境下的图像质量。

    一种驾驶员自适应的注视方向估计方法

    公开(公告)号:CN116012932B

    公开(公告)日:2023-09-19

    申请号:CN202211716143.3

    申请日:2022-12-29

    Abstract: 本发明提供一种驾驶员自适应的注视方向估计方法,包括:模型训练步骤和模型部署步骤。模型训练步骤包括:基于先验数据库训练通用的注视方向差值估计模型。采集特定驾驶员少量的注视区域人脸图像,利用解缠编码解码网络,生成其他的注视区域人脸图像,重新调优训练个性化注视方向差值网络模型。对于特定驾驶员新的人脸图像,将当前的注视区域人眼图像和已知的近邻注视区域人眼图像输入个性化注视方向差值网络模型获取注视方向差值,进行真实注视方向映射,得到最终的驾驶员注视方向。本发明避免了驾驶员个体差异影响,能够自动生成新驾驶员注视方向标记样本,采集少量注视区域人脸图像,即可快速适配新驾驶员,能够有效地监控驾驶员的注视行为。

    融合光场和偏振信息的水下图像优化方法

    公开(公告)号:CN111738941B

    公开(公告)日:2023-08-29

    申请号:CN202010507045.3

    申请日:2020-06-05

    Abstract: 本发明公开了一种融合光场和偏振信息的水下图像优化方法,包括:在距离目标场景的不同位置对所述目标场景进行偏振图采集,多张偏振图构成偏振图组;对不同位置的偏振图组分别进行复原得到不同位置的偏振复原图像;在所述偏振复原图像中确定目标图像;根据所有不同位置的偏振图像对所述目标图像进行优化;将光场成像技术与偏振成像技术相结合,在一次采集过程中获得场景的多景深信息,增加单次成像获得的信息维度,利用提出的偏振复原算法对各子景深图像进行初始复原,最后利用光场相关算法进行复原融合,提高水下成像质量。

    一种驾驶员自适应的注视方向估计方法

    公开(公告)号:CN116012932A

    公开(公告)日:2023-04-25

    申请号:CN202211716143.3

    申请日:2022-12-29

    Abstract: 本发明提供一种驾驶员自适应的注视方向估计方法,包括:模型训练步骤和模型部署步骤。模型训练步骤包括:基于先验数据库训练通用的注视方向差值估计模型。采集特定驾驶员少量的注视区域人脸图像,利用解缠编码解码网络,生成其他的注视区域人脸图像,重新调优训练个性化注视方向差值网络模型。对于特定驾驶员新的人脸图像,将当前的注视区域人眼图像和已知的近邻注视区域人眼图像输入个性化注视方向差值网络模型获取注视方向差值,进行真实注视方向映射,得到最终的驾驶员注视方向。本发明避免了驾驶员个体差异影响,能够自动生成新驾驶员注视方向标记样本,采集少量注视区域人脸图像,即可快速适配新驾驶员,能够有效地监控驾驶员的注视行为。

    一种基于图像处理和模式识别的车位引导方法和系统

    公开(公告)号:CN107067813A

    公开(公告)日:2017-08-18

    申请号:CN201710447805.4

    申请日:2017-06-14

    CPC classification number: G08G1/142 G06K9/00812 G06K9/6256 G06N3/0454

    Abstract: 本发明提供一种基于图像处理和模式识别的车位引导方法和系统,包括:接收摄像头采集的待检测图像,所述待检测图像包括:标识杆和多个车位,所述标识杆设置在所述多个车位对应矩形区域的四个顶点或对角线的两个点;识别所述停车场图像中的标识杆,并根据所述标识杆的坐标确定所述标识杆在所述车位图像中的位置;识别所述标识杆范围内的车辆,并确定所述车辆的个数;比较所述车辆个数与所述范围内的车位数,若所述车辆的个数等于所述车位数,则确定没有空车位,若所述车辆的个数小于所述车位数,则根据所述车辆的坐标确定空车位的位置。本发明采用现有的监控摄像头结合标识杆,基于图像处理和模式识别实现了车位引导,降低了系统的成本,利于后期维护、调试和升级。

    多摄像头场景下车辆的轨迹计算方法

    公开(公告)号:CN106846374A

    公开(公告)日:2017-06-13

    申请号:CN201611193901.2

    申请日:2016-12-21

    Abstract: 本发明提供一种多摄像头场景下车辆的轨迹计算方法,包括:采用卷积神经网络识别摄像机采集的车辆监控视频,获取目标车辆的识别信息,识别信息包括:目标车辆的型号、品牌、实际运行方向以及目标车辆的倾斜角度,并将目标车辆所在位置用矩阵框标注;根据矩阵框与跟踪器保存区域的重合面积对目标车辆进行跟踪,获取目标车辆的运动信息,运动信息包括目标车辆的出现位置、离开位置以及目标车辆的运行方向和轨迹;根据目标车辆的运动信息、摄像机的安装位置和道路连通关系标定摄像机网络的拓扑结构;通过贝叶斯估计对摄像机网络中的目标车辆的轨迹进行关联。本发明提高了多摄像头场景下车辆的轨迹计算的准确率。

    一种融合全景与细节的监控装置及方法

    公开(公告)号:CN106791419A

    公开(公告)日:2017-05-31

    申请号:CN201611261130.6

    申请日:2016-12-30

    CPC classification number: H04N5/23212 G05D3/12 H04N7/183

    Abstract: 本发明提供一种融合全景与细节的监控装置及方法,包括:长焦摄像头、广角摄像头、云台、固定底座以及图像处理模块;所述长焦摄像头设置于所述云台之上,用于采集监控区域的局部图像;所述云台设置于所述固定底座之上,用于带动所述广角摄像头水平方向运动;所述广角摄像头固定在所述固定底座上,用于采集监控区域全部图像;所述图像处理模块设置于所述固定底座内部,且分别于所述长焦摄像头和所述广角摄像头连接,用于向所述长焦摄像头发送采集区域位置,并接收所述长焦摄像头采集的全部图像和所述广角摄像头采集的局部图像,并结合所述局部图像和所述全部图像识别监控目标。本发明在广角摄像头采集的图像中实现了识别具体细节的目标和事件。

    一种面向头戴光学助视器的视线追踪方法

    公开(公告)号:CN119310738A

    公开(公告)日:2025-01-14

    申请号:CN202411741399.9

    申请日:2024-11-29

    Abstract: 本发明涉及人机交互的技术领域。本发明提供一种面向头戴光学助视器的视线追踪方法,包括以下步骤:首先对采集的图像进行预处理,其次判断助视器的所在区域,随后解决瞳孔存在的遮挡和变形的问题来获得瞳孔轮廓,根据瞳孔轮廓对瞳孔和眼球进行建模和参数求解,最终通过坐标系转换和单点校准实现视线追踪。本发明可以用于使用者在头戴光学助视器情况下的视线追踪,能够迅速且准确地完成头戴光学助视器的视线追踪任务,具有较好的准确度和鲁棒性,对于低视力人群的注意力机制研究等具有积极意义。

Patent Agency Ranking