-
公开(公告)号:CN101576771A
公开(公告)日:2009-11-11
申请号:CN200910019741.3
申请日:2009-03-24
Applicant: 山东大学
IPC: G06F3/01
Abstract: 本发明公开了一种基于非均匀样本插值的眼动仪定标方法。首先选取注视屏幕上不同行、不同列的多个点作为定标点,记录其屏幕上的真实坐标,利用椭圆拟合的方法提取出眼睛瞳孔中心坐标,将瞳孔中心坐标和屏幕真实坐标一一对应作为参考插值点。然后注视屏幕上任意一点作为测试点,按照非均匀样本插值的思想,计算出测试点在屏幕上的真实坐标,实现视线跟踪。本发明避免了现有技术考虑眼球物理模型和眼睛成像的非线性特性等难点,通过非均匀样本插值的思想,实现瞳孔中心和注视点的准确定位,具有简单、高效、鲁棒性强、准确度高等优点。
-
公开(公告)号:CN118335200B
公开(公告)日:2024-09-03
申请号:CN202410748431.X
申请日:2024-06-12
Applicant: 山东大学
IPC: G16B40/00 , G16B25/00 , G06F18/213 , G06F18/241 , G06F18/25 , G06N5/04
Abstract: 本公开提供了基于因果特征选择的肺腺癌亚型分类系统、介质及设备,涉及基因分类预测技术领域,包括:数据获取模块获取基因的多组学表达数据,并制定样本标签;特征选择模块计算每个组学特征对于样本标签的最大互信息系数,获得所有组学表达数据的因果子集候选特征队列;采用贪婪启发式搜索算法,选择因果子集候选特征队列中的候选特征,并对候选特征进行条件独立性测试,得到每个组学表达数据中的因果特征;分类模块将每组的因果特征输入至候选分类模型中,输出每组的标签分布;将每组的标签分布进行数据融合得到融合特征,将融合特征输入至癌症亚型分类模型中,输出最终的分类结果;本公开提高了癌症亚型分类系统的泛化能力和可解释性。
-
公开(公告)号:CN101964111B
公开(公告)日:2011-11-30
申请号:CN201010292929.8
申请日:2010-09-27
Applicant: 山东大学
IPC: G06T5/50
Abstract: 本发明提供了一种基于超分辨率的视线跟踪精度提升方法。该方法先在采集的人脸图像中进行人眼定位,并提取出大致的瞳孔区域;然后以提取出的每一帧瞳孔区域图像以及其后面相邻的3帧图像作为待配准图像,经过特征提取、相似度分析确定出变换函数和参数,并根据图像的帧位移差构造出规整化函数,进而实现图像各点的配准,综合四帧图像的特征信息重构出具有高分辨率的瞳孔区域;再在经过超分辨的瞳孔区域中提取角膜上的反射点并计算其坐标位置,同时,通过瞳孔边缘提取和椭圆拟合,确定瞳孔中心的坐标。最后根据反射点及瞳孔中心的坐标估计出屏幕上注视点的位置。本发明将超分辨技术用于视线跟踪系统,在不增加硬件设置的情况下,提高了系统的精度。
-
公开(公告)号:CN102043952A
公开(公告)日:2011-05-04
申请号:CN201010618752.6
申请日:2010-12-31
Applicant: 山东大学
Abstract: 本发明公开了一种基于双光源的视线跟踪方法,具体步骤如下:(1)图像预处理:利用瞳孔和反射点灰度差的原理,对采集到的人脸图像进行预处理,提取出人眼图像中两个反射点和瞳孔区域,并计算出两个反射点及瞳孔中心在图像坐标系中的坐标;(2)注视点估计:根据图像中瞳孔中心与两反射点构成的三角形和屏幕上注视点及两个红外光源构成的三角形近似为一对相似三角形来确定屏幕上注视点的近似位置;(3)注视点校正,得到最终的注视点位置。本发明无需测量人距屏幕间的距离,计算复杂度低,对头部运动鲁棒性强,实验过程自然舒适,易于实现,估计误差在视线跟踪系统应用的误差容许范围之内。
-
公开(公告)号:CN101964111A
公开(公告)日:2011-02-02
申请号:CN201010292929.8
申请日:2010-09-27
Applicant: 山东大学
IPC: G06T5/50
Abstract: 本发明提供了一种基于超分辨率的视线跟踪精度提升方法。该方法先在采集的人脸图像中进行人眼定位,并提取出大致的瞳孔区域;然后以提取出的每一帧瞳孔区域图像以及其后面相邻的3帧图像作为待配准图像,经过特征提取、相似度分析确定出变换函数和参数,并根据图像的帧位移差构造出规整化函数,进而实现图像各点的配准,综合四帧图像的特征信息重构出具有高分辨率的瞳孔区域;再在经过超分辨的瞳孔区域中提取角膜上的反射点并计算其坐标位置,同时,通过瞳孔边缘提取和椭圆拟合,确定瞳孔中心的坐标。最后根据反射点及瞳孔中心的坐标估计出屏幕上注视点的位置。本发明将超分辨技术用于视线跟踪系统,在不增加硬件设置的情况下,提高了系统的精度。
-
公开(公告)号:CN101576771B
公开(公告)日:2010-12-01
申请号:CN200910019741.3
申请日:2009-03-24
Applicant: 山东大学
IPC: G06F3/01
Abstract: 本发明公开了一种基于非均匀样本插值的眼动仪定标方法。首先选取注视屏幕上不同行、不同列的多个点作为定标点,记录其屏幕上的真实坐标,利用椭圆拟合的方法提取出眼睛瞳孔中心坐标,将瞳孔中心坐标和屏幕真实坐标一一对应作为参考插值点。然后注视屏幕上任意一点作为测试点,按照非均匀样本插值的思想,计算出测试点在屏幕上的真实坐标,实现视线跟踪。本发明避免了现有技术考虑眼球物理模型和眼睛成像的非线性特性等难点,通过非均匀样本插值的思想,实现瞳孔中心和注视点的准确定位,具有简单、高效、鲁棒性强、准确度高等优点。
-
公开(公告)号:CN118335200A
公开(公告)日:2024-07-12
申请号:CN202410748431.X
申请日:2024-06-12
Applicant: 山东大学
IPC: G16B40/00 , G16B25/00 , G06F18/213 , G06F18/241 , G06F18/25 , G06N5/04
Abstract: 本公开提供了基于因果特征选择的肺腺癌亚型分类系统、介质及设备,涉及基因分类预测技术领域,包括:数据获取模块获取基因的多组学表达数据,并制定样本标签;特征选择模块计算每个组学特征对于样本标签的最大互信息系数,获得所有组学表达数据的因果子集候选特征队列;采用贪婪启发式搜索算法,选择因果子集候选特征队列中的候选特征,并对候选特征进行条件独立性测试,得到每个组学表达数据中的因果特征;分类模块将每组的因果特征输入至候选分类模型中,输出每组的标签分布;将每组的标签分布进行数据融合得到融合特征,将融合特征输入至癌症亚型分类模型中,输出最终的分类结果;本公开提高了癌症亚型分类系统的泛化能力和可解释性。
-
公开(公告)号:CN102043952B
公开(公告)日:2012-09-19
申请号:CN201010618752.6
申请日:2010-12-31
Applicant: 山东大学
Abstract: 本发明公开了一种基于双光源的视线跟踪方法,具体步骤如下:(1)图像预处理:利用瞳孔和反射点灰度差的原理,对采集到的人脸图像进行预处理,提取出人眼图像中两个反射点和瞳孔区域,并计算出两个反射点及瞳孔中心在图像坐标系中的坐标;(2)注视点估计:根据图像中瞳孔中心与两反射点构成的三角形和屏幕上注视点及两个红外光源构成的三角形近似为一对相似三角形来确定屏幕上注视点的近似位置;(3)注视点校正,得到最终的注视点位置。本发明无需测量人距屏幕间的距离,计算复杂度低,对头部运动鲁棒性强,实验过程自然舒适,易于实现,估计误差在视线跟踪系统应用的误差容许范围之内。
-
-
-
-
-
-
-