-
公开(公告)号:CN106530926B
公开(公告)日:2019-03-05
申请号:CN201611073067.3
申请日:2016-11-29
Applicant: 东南大学
Abstract: 本发明公开了一种基于Myo臂带及视线追踪的虚拟假手训练平台及其训练方法,包括Myo臂带、Unity虚拟环境、视线追踪单元和震动臂带;Unity虚拟环境包括虚拟假手以及可抓物体的适配场景;Myo臂带上包括若干干电极和九轴惯性模块,干电极采集人体手臂微电流,并解算出当前手势信息,九轴惯性模块采集并解算出当前手臂姿态信息;当前手势信息和手臂姿态信息传输至Unity虚拟环境并控制虚拟假手做出对应的动作;视线追踪单元,分析瞳孔相对眼睛的位置,并映射到虚拟适配场景中,实现通过人眼选择物体;震动臂带将Unity虚拟环境的物体被抓取信息反馈至手臂肌肉。本发明可以减轻患者心理压力和经济压力,同时该平台也能够评估新的假手控制算法效果,促进肌电假手的开发。
-
公开(公告)号:CN107371009A
公开(公告)日:2017-11-21
申请号:CN201710425324.3
申请日:2017-06-07
Applicant: 东南大学
CPC classification number: G06K9/00342 , G06T13/00 , G06T19/006 , H04N13/261
Abstract: 本发明公开了一种人体动作增强可视化方法及人体动作增强现实系统,该方法通过人体动作获取设备提取人体骨架动作信息,将其设置为边界条件及外力,使用计算流体力学的方法,在叠加的图层上进行气流运动的仿真,并将气流下密度场的变化与运动数据同步显示,从而增强各类动作的可视化效果,适用于对微小及瞬时动作的可视化。本发明通过计算自动合成增强运动效果的视觉数据至原人体动作视频上,无需人为地对动作数据进行后续的处理,可配合增强现实眼镜或其他相机显示一体设备,应用于增强现实等领域。
-
公开(公告)号:CN106530926A
公开(公告)日:2017-03-22
申请号:CN201611073067.3
申请日:2016-11-29
Applicant: 东南大学
CPC classification number: G09B23/28 , A61F2/68 , A61F2/72 , A61F2002/6827
Abstract: 本发明公开了一种基于Myo臂带及视线追踪的虚拟假手训练平台及其训练方法,包括Myo臂带、Unity虚拟环境、视线追踪单元和震动臂带;Unity虚拟环境包括虚拟假手以及可抓物体的适配场景;Myo臂带上包括若干干电极和九轴惯性模块,干电极采集人体手臂微电流,并解算出当前手势信息,九轴惯性模块采集并解算出当前手臂姿态信息;当前手势信息和手臂姿态信息传输至Unity虚拟环境并控制虚拟假手做出对应的动作;视线追踪单元,分析瞳孔相对眼睛的位置,并映射到虚拟适配场景中,实现通过人眼选择物体;震动臂带将Unity虚拟环境的物体被抓取信息反馈至手臂肌肉。本发明可以减轻患者心理压力和经济压力,同时该平台也能够评估新的假手控制算法效果,促进肌电假手的开发。
-
公开(公告)号:CN107371009B
公开(公告)日:2019-03-29
申请号:CN201710425324.3
申请日:2017-06-07
Applicant: 东南大学
IPC: H04N13/261 , H04N13/275 , G06K9/00 , G06T13/00 , G06T19/00
Abstract: 本发明公开了一种人体动作增强可视化方法及人体动作增强现实系统,该方法通过人体动作获取设备提取人体骨架动作信息,将其设置为边界条件及外力,使用计算流体力学的方法,在叠加的图层上进行气流运动的仿真,并将气流下密度场的变化与运动数据同步显示,从而增强各类动作的可视化效果,适用于对微小及瞬时动作的可视化。本发明通过计算自动合成增强运动效果的视觉数据至原人体动作视频上,无需人为地对动作数据进行后续的处理,可配合增强现实眼镜或其他相机显示一体设备,应用于增强现实等领域。
-
-
-