-
公开(公告)号:CN110837792B
公开(公告)日:2023-07-25
申请号:CN201911064467.1
申请日:2019-11-04
Applicant: 东南大学
IPC: G06V40/20 , G06V40/10 , G06V10/774 , G06V10/84
Abstract: 本发明公开了一种三维手势识别方法及装置,该方法包括:(1)采集静态手势,并根据建立的手部空间坐标系进行手部位置表示;(2)以静态手势的骨节方向信息作为手势识别的观测值特征序列,并对不同角度和位置下的静态手势对应的手势识别观测值特征序列预处理;(3)采用GMM‑HMM模型对静态手势对应的观测序列进行识别;(4)根据等待模型对动态手势进行识别;(5)在用户使用时收集用户个体的手势数据,并利用该数据对GMM‑HMM模型进行迁移训练,形成针对于每个用户的模型。本发明所述的归一化的方法是在特征序列的基础上来的,它能够在保留完整数据的情况下很方便且准确的实现归一化,使得识别准确率升高。
-
公开(公告)号:CN112181132B
公开(公告)日:2024-05-28
申请号:CN202010857330.8
申请日:2020-08-24
Applicant: 东南大学
Abstract: 本发明公开了一种虚拟环境中基于射线交互任务的模型评估方法及系统,涉及交互任务模型评估技术领域,解决了现有虚拟人机交互中射线交互任务不能进行量化评估的技术问题,其技术方案要点是首先对用户交互任务进行分析得到用户交互行为,再对用户交互行为进行研究确定用户基本动素。为用户基本动素配置交互规则,同时分析测算用户基本动素的交互时间以及系统动作时间,根据交互时间、交互规则和系统动作时间预估完成用户交互任务的总时间,最后根据总时间对交互任务进行评估。使得基于射线的交互任务实现了量化评估,从而帮助相关从业人员更科学地设计基于射线的交互模型,为在虚拟环境下进行射线交互任务的人员提供更流畅舒适的交互体验。
-
公开(公告)号:CN112181134A
公开(公告)日:2021-01-05
申请号:CN202010858351.1
申请日:2020-08-24
Applicant: 东南大学
Abstract: 本发明公开了一种虚拟环境中基于手指点击交互任务的模型评估方法及系统,涉及交互任务模型评估技术领域,解决了现有虚拟环境中基于手指点击的交互任务不能进行量化评估的技术问题,其技术方案要点是首先对用户交互任务进行分析得到用户交互行为,再对用户交互行为进行研究确定用户基本动素。为用户基本动素配置交互规则,同时分析测算用户基本动素的交互时间以及系统反馈时间,根据交互时间、交互规则和系统反馈时间预估完成用户交互任务的总时间,最后根据总时间对交互任务进行评估。使得基于手指点击的交互任务实现了量化评估,从而帮助相关从业人员更科学地设计基于手指点击的交互模型,为在虚拟环境下进行手指点击交互任务的人员提供更流畅舒适的交互体验。
-
公开(公告)号:CN118963574A
公开(公告)日:2024-11-15
申请号:CN202410834864.7
申请日:2024-06-26
Applicant: 东南大学
IPC: G06F3/041 , G06F3/14 , G06F3/0488
Abstract: 本发明公开了一种面向指向交互的屏幕显示设备快捷校准方法及装置,涉及人机交互技术领域。其中,所述方法包括:用户根据屏幕显示设备类型启动对应的人机位置校准程序;所述校准程序将引导所述用户点击所述屏幕设备显示界面上校准定位按钮或做出指向所述屏幕设备四端方向的校准动作;在所述用户执行所述校准程序并做出所述校准动作后采集所述用户身体特征关节点空间坐标数据和计算手臂指向方向向量;建立屏幕显示界面空间坐标系,根据所述身体特征关节点空间坐标值和所述手臂指向向量值建立所述屏幕设备显示界面空间位置表示;使用所述新建立的屏幕设备显示界面位置表示替换原指向交互程序中的位置表示,完成屏幕设备显示界面空间位置校准。
-
-
公开(公告)号:CN110837792A
公开(公告)日:2020-02-25
申请号:CN201911064467.1
申请日:2019-11-04
Applicant: 东南大学
Abstract: 本发明公开了一种三维手势识别方法及装置,该方法包括:(1)采集静态手势,并根据建立的手部空间坐标系进行手部位置表示;(2)以静态手势的骨节方向信息作为手势识别的观测值特征序列,并对不同角度和位置下的静态手势对应的手势识别观测值特征序列预处理;(3)采用GMM-HMM模型对静态手势对应的观测序列进行识别;(4)根据等待模型对动态手势进行识别;(5)在用户使用时收集用户个体的手势数据,并利用该数据对GMM-HMM模型进行迁移训练,形成针对于每个用户的模型。本发明所述的归一化的方法是在特征序列的基础上来的,它能够在保留完整数据的情况下很方便且准确的实现归一化,使得识别准确率升高。
-
公开(公告)号:CN112181133B
公开(公告)日:2024-05-07
申请号:CN202010857334.6
申请日:2020-08-24
Applicant: 东南大学
IPC: G06F3/01 , G06F3/04883
Abstract: 本发明公开了一种基于静态和动态手势交互任务的模型评估方法及系统,涉及交互任务模型评估技术领域,解决了现有静态和动态手势交互任务不能进行量化评估的技术问题,其技术方案要点是对用户交互任务进行分析得到用户交互行为,对用户交互行为进行研究确定用户基本动素。为用户基本动素配置交互规则,同时分析测算用户基本动素的交互时间以及系统动作时间,根据交互时间、交互规则和系统动作时间预估完成用户交互任务的总时间,最后根据总时间对交互任务进行评估。使得基于静态和动态手势的交互任务实现了量化评估,从而帮助相关从业人员更科学地设计交互模型,为在自然人机交互系统下进行静态和动态手势交互任务的人员提供更流畅舒适的交互体验。
-
公开(公告)号:CN112181133A
公开(公告)日:2021-01-05
申请号:CN202010857334.6
申请日:2020-08-24
Applicant: 东南大学
IPC: G06F3/01 , G06F3/0488
Abstract: 本发明公开了一种基于静态和动态手势交互任务的模型评估方法及系统,涉及交互任务模型评估技术领域,解决了现有静态和动态手势交互任务不能进行量化评估的技术问题,其技术方案要点是对用户交互任务进行分析得到用户交互行为,对用户交互行为进行研究确定用户基本动素。为用户基本动素配置交互规则,同时分析测算用户基本动素的交互时间以及系统动作时间,根据交互时间、交互规则和系统动作时间预估完成用户交互任务的总时间,最后根据总时间对交互任务进行评估。使得基于静态和动态手势的交互任务实现了量化评估,从而帮助相关从业人员更科学地设计交互模型,为在自然人机交互系统下进行静态和动态手势交互任务的人员提供更流畅舒适的交互体验。
-
公开(公告)号:CN112230761A
公开(公告)日:2021-01-15
申请号:CN202010992379.4
申请日:2020-09-21
Applicant: 东南大学
Abstract: 本发明公开了一种基于语义表达与生理约束的手势编码方法及系统,涉及手势编码技术领域,包含可以表征动态手势和静态手势的一系列编码规则,解决了现有手势编码冗余过多的技术问题,其技术方案要点是根据语义表达编码规则和生理约束编码规则进行离散化的手势编码,能够方便计算机识别、转换和存储,将连续多变的手势转化为计算机语言,具有可解释性和可理解性,并可以在此基础上进行手势定义和手势交互系统开发。
-
公开(公告)号:CN112181132A
公开(公告)日:2021-01-05
申请号:CN202010857330.8
申请日:2020-08-24
Applicant: 东南大学
Abstract: 本发明公开了一种虚拟环境中基于射线交互任务的模型评估方法及系统,涉及交互任务模型评估技术领域,解决了现有虚拟人机交互中射线交互任务不能进行量化评估的技术问题,其技术方案要点是首先对用户交互任务进行分析得到用户交互行为,再对用户交互行为进行研究确定用户基本动素。为用户基本动素配置交互规则,同时分析测算用户基本动素的交互时间以及系统动作时间,根据交互时间、交互规则和系统动作时间预估完成用户交互任务的总时间,最后根据总时间对交互任务进行评估。使得基于射线的交互任务实现了量化评估,从而帮助相关从业人员更科学地设计基于射线的交互模型,为在虚拟环境下进行射线交互任务的人员提供更流畅舒适的交互体验。
-
-
-
-
-
-
-
-
-