-
公开(公告)号:CN112306232A
公开(公告)日:2021-02-02
申请号:CN202010984175.6
申请日:2020-09-18
Applicant: 济南大学
Inventor: 冯志全
Abstract: 本发明提供了一种实时重构物体运动轨迹的方法,所述的方法包括:用摄像头获取t时刻运动物体的图像It;计算It的重心像素点坐标P(xt,yt);将P点映射到3D空间位置Q(Xt,Yt,Zt);在3D空间中画出Q点位置;基于人机交互方式改变Q点轨迹;在输出设备上可视化Q点的轨迹。该方法可以用于虚拟现实、人机交互、虚拟实验等系统中,在二维跟踪的基础上,结合语音、传感等多模态感知与交互技术控制运动对象的虚拟轨迹,可同时满足高实时性和低成本的应用要求。
-
公开(公告)号:CN112295617A
公开(公告)日:2021-02-02
申请号:CN202010984196.8
申请日:2020-09-18
Applicant: 济南大学
Abstract: 本发明提出了一种基于实验场景态势感知的智能烧杯,包括多模态输入感知模块、意图理解模块和意图融合模块;多模块输入感知模块用于接收语音传感器和视觉信息。意图理解模块用于根据语音关键字与语音意图库中意图的相关度得到语音意图;通过姿态传感器和测距设备交互获取烧杯的三维信息得到操作行为意图;基于图获取的图像,采用slam技术感知烧杯运动轨迹和采用区域生成网络感知场景态势得到场景感知意图。意图融合模块用于将用户意图利用模糊逻辑算子进行模糊推理,结合场景感知意图得到意图融合最终结果。本发明通过智能烧杯通过多模态融合与意图理解算法解决了用户行为的过程监控、实验场景理解和真实感量化交互方法的问题。
-
公开(公告)号:CN112149574A
公开(公告)日:2020-12-29
申请号:CN202011014566.1
申请日:2020-09-24
Applicant: 济南大学
Abstract: 本发明为了解决现有技术中存在的技术问题,创新提出了一种面向陪护机器人的意图柔性映射方法,通过目标物体检测的方式感知交互情境,利用基于视觉的手势识别技术来进行人机交互,利用用户在使用同一种手势表达不同语义时,由于对不同事物的认知不同而形成的特征差异作为柔性映射的基础,实现了同一交互情境下一种手势到多种语义的映射,摆脱了传统的一种指令对应一种操作的人机交互模式,这样只需要规定少量的手势即可以完成多个功能,本发明还提出了一种面向陪护机器人的意图柔性映射装置,降低了老年人的认知负担,使得对陪护机器人的使用更加的简易、灵活。
-
公开(公告)号:CN109598999B
公开(公告)日:2020-10-30
申请号:CN201811548935.8
申请日:2018-12-18
Applicant: 济南大学
Inventor: 冯志全
IPC: G06F3/0354 , G09B9/00
Abstract: 本发明提供了一种可以智能感知用户倾倒行为的虚拟实验容器,该容器包括:容器模型本体,用于模拟实际实验容器的形状和大小;触发组件,设置有若干触发源;响应组件,设置在容器模拟本体上,所述的响应组件上设置有若干接收源;所述接收源的数量与所述触发源的数量相同,任意一个触发源和任意一个接收源接触时,形成一组感应回路;感应回路检测模块,用于检测感应回路的信号强弱,当组成的感应回路数量越多时,感应回路的信号越强。该发明通过两个硬件组件的对接实现倾倒行为的感知,判断更加精确,判断速度更快。
-
公开(公告)号:CN111675184A
公开(公告)日:2020-09-18
申请号:CN202010552135.4
申请日:2020-06-17
Applicant: 济南大学
Inventor: 冯志全
Abstract: 本发明提供了智能分液漏斗及其操作方法,所述的漏斗包括斗体,所述斗体顶部设有开口,开口处设有第一传感器和活塞,所述的第一传感器用于检测向斗体内添加溶液的体积;所述的斗体的底部设有转动活塞,转动活塞上均匀设置若干转动传感器,当活塞转动到任一转动传感器位置处时,该转动传感器发出感应信号。所述的方法包括以下步骤:S1:检测是否向斗体内部添加溶液;S2:检测是否放入烧杯或者烧瓶等仪器中;S3:计算试剂流量。该发明的分液漏斗能有效监测分液漏斗的操作过程,并实时计算出试剂流量。
-
公开(公告)号:CN109545002B
公开(公告)日:2020-08-14
申请号:CN201811477795.X
申请日:2018-12-05
Applicant: 济南大学
Inventor: 冯志全
IPC: G09B5/02 , G09B23/24 , G06F16/738 , G06F16/78
Abstract: 本发明提供了一种用于虚拟实验的容器套件及其应用,属于实验设备领域。该套件包括:容器模型,在所述容器模型的外壁上设置有触摸屏显示器、电子芯片;在所述容器模型的入口边沿设置有多个传感器;所述触摸屏显示器、传感器分别与电子芯片连接;在所述容器模型的底部或侧面设置有声音传感器,所述声音传感器与电子芯片连接;在所述容器模型的底部隔离出一个封闭的空间,所述封闭的空间位于所述声音传感器的一侧;在所述封闭的空间内设置有小球;所述小球能够在所述封闭的空间内自由运动。利用本发明可以精准感知用户的操作过程并实时呈现与反馈;而且可以自由改变实验参数,进行不同参数下的科学实验;用虚拟容器模型就可以得到真实的用户体验。
-
公开(公告)号:CN105929947B
公开(公告)日:2020-07-28
申请号:CN201610237410.7
申请日:2016-04-15
Applicant: 济南大学
Abstract: 本发明提供了一种基于场景态势感知的人机交互方法,属于人机交互领域。该基于场景态势感知的人机交互方法利用最小二乘法拟合平行线束,判断在平行线束内的物体距离直线的距离,根据该物体与虚拟手的距离来判断用户的操作意图,并且采用包围盒大小实现控制Z变量在合适的范围内变化,最终实现相向互动。本发明提出的基于包围盒大小来控制Z变量变化,得到很好的效果;在用户有目的的移动的情况下,拟合直线束预测用户想要操作的物体的正确率达87%以上。
-
公开(公告)号:CN110766804A
公开(公告)日:2020-02-07
申请号:CN201911041939.1
申请日:2019-10-30
Applicant: 济南大学
Abstract: 本发明提供了一种VR场景下人机协同抓取物体的方法,属于虚拟现实技术领域。该方法包括:同时进行手势识别和语音识别,其中,所述手势识别是采集人手的视频信号,根据所述视频信号驱动虚拟场景中的虚拟人手的运动,并获得手势识别结果;所述语音识别是采集用户的音频信号,对音频信号进行识别和语义分析,根据语义分析得到语音识别结果;根据所述手势识别结果和语音识别结果进行场景主动转换,协助用户完成操作。利用本发明能够协助用户准确高效地操作自己想要交互的虚拟物体。
-
公开(公告)号:CN109920315B
公开(公告)日:2019-11-08
申请号:CN201910248072.0
申请日:2019-03-29
Applicant: 济南大学
IPC: G09B23/20
Abstract: 本申请公开了一种虚拟α粒子散射实验系统,该系统主要包括:实验模型模块、倾角传感器、角度传感器模块、通讯模块和呈现模块,实验模型模块设置于角度传感器模块上,倾角传感器与实验模型模块连接,倾角传感器和角度传感器分别通过通讯模块与呈现模块通信连接。通过该实验系统,有利于提高实验的准确性和实验效率,还能够降低实验条件,有效解决偏远地区无法进行α粒子散射实验的问题,有利于提高实验系统适用范围,便于推广使用。
-
公开(公告)号:CN110309726A
公开(公告)日:2019-10-08
申请号:CN201910496492.0
申请日:2019-06-10
Applicant: 济南大学
Abstract: 本发明提供一种微手势识别方法,采用收据手套作为输入设备,所述的数据手套可获取m个关节的旋转角度数据,包括以下步骤:a.首先进行数据预处理,将获取的数据使用最小二乘法进行曲线拟合处理;b.进行手势建模,使每种手势用一个包含m个元素的离散子序列SLZ来表示;c.进行手势识别,使用基于模板匹配的编辑距离进行手势的匹配与识别。本发明从传统的手掌、手臂等大幅度动作的识别转向手指精细动作的识别方向,为普适环境下的人机交互提供了更加自然和谐的解决方案。
-
-
-
-
-
-
-
-
-