-
公开(公告)号:CN102125422A
公开(公告)日:2011-07-20
申请号:CN201010033780.1
申请日:2010-01-12
Applicant: 北京科技大学
IPC: A61B3/113
Abstract: 本发明提出一种视线追踪系统中基于瞳孔-角膜反射的视线估计方法,属于人机交互领域。针对现有PCCR存在的主要问题:限制使用者头部运动和个体标定问题,提出了一种单相机单光源条件下头部位置的补偿方法,实现了头部位置变化对瞳孔角膜向量影响的解析补偿,并建立一种个体差异的转化模型,进而简化标定过程为单点标定。以此为基础形成一种新的视线估计方法,本方法使精确视线估计的最小硬件要求降低到单相机(未标定)单光源,既不需要繁杂的系统标定,又实现了自然头动视线估计,并且简化用户标定为单点标定。该方法的各个环节都满足实时性要求,为面向人机交互的视线追踪系统提供了有效的解决方案。
-
公开(公告)号:CN101788848A
公开(公告)日:2010-07-28
申请号:CN200910093127.1
申请日:2009-09-29
Applicant: 北京科技大学
IPC: G06F3/01
Abstract: 用于视线追踪系统的眼部特征参数检测方法,属于人机交互领域,特别涉及人机交互系统中生物特征检测。此方法主要用来提高瞳孔定位的精度。针对瞳孔运动造成的差分图像瞳孔区域不全,通过迭代扩展的方式还原瞳孔区域,提高了瞳孔定位的精度。针对角膜反射区域边界的不确定性,通过多次分割的方式计算质心,减小了模糊的边界区域对质心结果的影响。针对头部随机运动造成的阈值分割法瞳孔定位错误,利用瞳孔的历史信息,在上一时刻瞳孔附近进行特征提取,提高了瞳孔定位鲁棒性。建立了一个多特征参数提取的流程。实验结果验证了本发明方法的有效性。在人机交互和疾病诊断两个领域有着广泛的应用,如助残,虚拟现实,认知障碍诊断,人因分析等。
-
公开(公告)号:CN101699510A
公开(公告)日:2010-04-28
申请号:CN200910090639.2
申请日:2009-09-02
Applicant: 北京科技大学
IPC: G06T7/00
Abstract: 本发明采用一种视线追踪系统中的基于粒子滤波的瞳孔跟踪方法,属于人机交互领域。针对现有红外图像中瞳孔跟踪效果较差的问题,本发明建立一种三通道伪彩色图(TCPCM)的概念,TCPCM充分利用了各通道信息,使瞳孔特征明显,提高了跟踪的稳定性与精确性。针对背景对瞳孔跟踪过程中的干扰问题,建立一种符合瞳孔形态特征和变化规律的瞳孔目标模型,充分区分前景和背景,减小了背景对目标模型的干扰。针对瞳孔位置和形态预测效果较差的问题,本发明建立一种体现瞳孔运动规律的状态转移方程,充分考虑了瞳孔状态变化的各种情况,对瞳孔的位置和形状都能进行有效的预测。本发明通过高质量的特征检测及跟踪,使开发的视线追踪系统的精度达到了满足实时人机交互的水平。
-
公开(公告)号:CN101788848B
公开(公告)日:2012-05-23
申请号:CN200910093127.1
申请日:2009-09-29
Applicant: 北京科技大学
IPC: G06F3/01
Abstract: 用于视线追踪系统的眼部特征参数检测方法,属于人机交互领域,特别涉及人机交互系统中生物特征检测。此方法主要用来提高瞳孔定位的精度。针对瞳孔运动造成的差分图像瞳孔区域不全,通过迭代扩展的方式还原瞳孔区域,提高了瞳孔定位的精度。针对角膜反射区域边界的不确定性,通过多次分割的方式计算质心,减小了模糊的边界区域对质心结果的影响。针对头部随机运动造成的阈值分割法瞳孔定位错误,利用瞳孔的历史信息,在上一时刻瞳孔附近进行特征提取,提高了瞳孔定位鲁棒性。建立了一个多特征参数提取的流程。实验结果验证了本发明方法的有效性。在人机交互和疾病诊断两个领域有着广泛的应用,如助残,虚拟现实,认知障碍诊断,人因分析等。
-
-
-