-
公开(公告)号:CN105915987B
公开(公告)日:2018-07-06
申请号:CN201610237422.X
申请日:2016-04-15
Applicant: 济南大学
IPC: H04N21/422 , H04N21/485 , G06F3/01
Abstract: 本发明提供了一种面向智能电视的隐式交互方法,属于智能电器领域。所述方法包括:实时获取用户体态行为信息,检测用户位置,并检测与识别用户手势动作;同时检测智能电视的功能状态信息,获得低层次的显式交互信息;将处理后的用户体态行为信息与智能电视实时的功能状态信息相结合,建立基于用户行为和智能电视状态的多层次动态上下文推理模型,获得高层次的隐含交互信息;将隐含交互信息可视化,识别用户在可视化隐含信息指导下完成的手势动作,建立显隐信息融合的隐式交互行为模型,完成交互任务。
-
公开(公告)号:CN105929947B
公开(公告)日:2020-07-28
申请号:CN201610237410.7
申请日:2016-04-15
Applicant: 济南大学
Abstract: 本发明提供了一种基于场景态势感知的人机交互方法,属于人机交互领域。该基于场景态势感知的人机交互方法利用最小二乘法拟合平行线束,判断在平行线束内的物体距离直线的距离,根据该物体与虚拟手的距离来判断用户的操作意图,并且采用包围盒大小实现控制Z变量在合适的范围内变化,最终实现相向互动。本发明提出的基于包围盒大小来控制Z变量变化,得到很好的效果;在用户有目的的移动的情况下,拟合直线束预测用户想要操作的物体的正确率达87%以上。
-
公开(公告)号:CN105975906B
公开(公告)日:2018-01-30
申请号:CN201610268717.3
申请日:2016-04-27
Applicant: 济南大学
IPC: G06K9/00
Abstract: 本发明提供了一种基于面积特征的PCA静态手势识别方法,属于人机交互领域。该方法包括:第一步,对于通过摄像头捕捉到的图像进行处理,获得标准的手势图像;第二步,对第一步得到的手势图像进行包围盒处理,并将其投影到标准图像;第三步,获取第二步得到的标准图像中的手势区域形心、最远点和主方向;第四步,获取标准图像12区域最远点特征信息;第五步,获取标准图像的面积特征信息;第六步,采用PCA算法进行静态手势识别。
-
公开(公告)号:CN105929946B
公开(公告)日:2018-01-16
申请号:CN201610236789.X
申请日:2016-04-15
Applicant: 济南大学
IPC: G06F3/01 , G06F3/0481
Abstract: 本发明提供了一种基于虚拟界面的自然交互方法,属于智能计算机领域。该方法包括:S1,构建虚拟界面:通过静态和动态两种方式构建虚拟界面;S2,对虚拟界面进行分区:将虚拟界面平均分成多个区域,每个区域具有不同的功能;S3,虚拟界面的实时刷新移动:在交互过程中,如果用户需要更换位置进行操作,则虚拟界面会根据用户移动的距离情况进行相应的同方向的移动。本发明方法通过静态和动态两种方式构建虚拟界面,将虚拟界面进行分区,然后将虚拟界面作为输入界面与应用系统进行交互,有效解决了“Midas Touch Problem”,而且减少了用户的操作负荷,具有良好的用户体验。
-
公开(公告)号:CN105930784B
公开(公告)日:2017-10-13
申请号:CN201610236699.0
申请日:2016-04-15
Applicant: 济南大学
IPC: G06K9/00
Abstract: 本发明提供了一种手势识别方法,属于体感互动领域。该手势识别方法包括:S1,基于Kinect的手势分割:通过kinect获得深度图像和RGB彩色图像,从图像中分割出人手,得到手势模型;S2,提取手势模型的特征参数:使用基于二值图像的密度分布特征的方法和手指个数检测的方法来提取手势模型的特征参数;S3,与事先建立好的模板库中的手势进行匹配,最终选择出最接近的手势即为识别出的手势。本发明方法提高了手势识别效率。
-
-
-
-