一种基于场景树的用户界面生成方法

    公开(公告)号:CN113010168B

    公开(公告)日:2022-07-26

    申请号:CN202110219455.2

    申请日:2021-02-26

    IPC分类号: G06F8/38 G06F8/34 G06F9/451

    摘要: 本发明公开了一种基于场景树的用户界面生成方法,其步骤包括:1)根据用户界面需求确定用户界面的界面个数、每个界面的外观和功能;2)根据步骤1)的信息构建界面树;3)选中该界面树中一节点,对该节点对应的界面上的图元进行编辑;其中,编辑后的每个界面均具有退出或返回交互图元;4)选中该界面树中的一节点,进入到与其对应的状态迁移图编辑界面,对其进行编辑;初次进入该节点的状态迁移图编辑界面,根据所述界面树绘制该节点、该节点的子树节点、该节点的退出或返回交互任务,生成该节点的状态迁移图;5)将编辑后的界面树通过目标语言的生成模板转换为相应的代码,然后对代码进行编译生成该用户界面。

    一种可屏幕内触发边缘手势的控制方法

    公开(公告)号:CN113050868A

    公开(公告)日:2021-06-29

    申请号:CN202110372598.7

    申请日:2021-04-07

    IPC分类号: G06F3/0488 G06F9/451

    摘要: 本发明公开了一种可屏幕内触发边缘手势的控制方法,其步骤包括:当在屏幕边缘区域接收到单次或多次手势轨迹时,则利用手势识别模块将接收的手势轨迹识别为对应的边缘手势,并利用边缘手势控制模块触发该边缘手势所映射的功能;当在屏幕内部区域接收到预定义手势或输入信息时,首先在屏幕上绘制虚拟屏幕边缘,生成一虚拟屏幕;然后当在该虚拟屏幕的边缘接收到单次或多次手势轨迹时,则利用手势识别模块将接收的手势轨迹识别为对应的边缘手势,并利用边缘手势控制模块触发该边缘手势所映射的功能;当在该虚拟屏幕的内部区域接收到输入手势轨迹时,则利用手势识别模块识别该输入手势轨迹对应的手势,并利用手势控制模块触发该手势所映射的功能。

    一种基于场景树的用户界面生成方法

    公开(公告)号:CN113010168A

    公开(公告)日:2021-06-22

    申请号:CN202110219455.2

    申请日:2021-02-26

    IPC分类号: G06F8/38 G06F8/34 G06F9/451

    摘要: 本发明公开了一种基于场景树的用户界面生成方法,其步骤包括:1)根据用户界面需求确定用户界面的界面个数、每个界面的外观和功能;2)根据步骤1)的信息构建界面树;3)选中该界面树中一节点,对该节点对应的界面上的图元进行编辑;其中,编辑后的每个界面均具有退出或返回交互图元;4)选中该界面树中的一节点,进入到与其对应的状态迁移图编辑界面,对其进行编辑;初次进入该节点的状态迁移图编辑界面,根据所述界面树绘制该节点、该节点的子树节点、该节点的退出或返回交互任务,生成该节点的状态迁移图;5)将编辑后的界面树通过目标语言的生成模板转换为相应的代码,然后对代码进行编译生成该用户界面。

    一种实物编程方法和系统

    公开(公告)号:CN102136208B

    公开(公告)日:2013-01-09

    申请号:CN201110079139.6

    申请日:2011-03-30

    IPC分类号: G06F9/00

    摘要: 本发明公开了一种实物编程方法和系统,属于人机交互领域。本方法为:1)建立一套实物编程显示环境;2)图像采集单元拍摄用户所摆的实物编程块序列并将其上传至实物编程处理模块;3)实物编程处理模块根据实物编程块的计算机视觉识别码及实物编程模块的位置信息将实物编程块序列转换为对应的功能语义序列;4)判断当前功能语义序列中是否满足该实物显示环境的语法语义规则;如果不满足,则反馈相应的错误提示;5)用户根据提示信息更换相应的实物编程块;6)重复2)~5),直到所摆实物编程块序列对应的功能语义序列满足实物编程显示环境的语法语义判定规则,完成编程任务。本发明解决了儿童及新手学习编程的难题,系统成本低、易于推广。

    一种单显示多笔交互方法

    公开(公告)号:CN101853129A

    公开(公告)日:2010-10-06

    申请号:CN201010180816.9

    申请日:2010-05-18

    IPC分类号: G06F3/048 G06F3/033

    摘要: 本发明公开了一种单显示多笔交互方法,属于人机交互领域。本方法为:1)计算机系统中过滤出若干目标交互设备,并获取每个目标交互设备的信息对ID和I/O data;2)隐藏系统光标,并绘制每个目标交互设备的光标;3)对I/O data信息进行封装,并将ID作为附加数据发送到目标消息队列中;4)根据ID对封装后的消息进行分发,并更新光标显示;5)对消息进行冲突检测与消解;6)生成目标交互设备的原语,并根据原语生成目标交互设备的手势消息类型,发送到应用程序的目标消息队列;7)应用程序根据接收的ID数据和手势消息类型,驱动相应的目标交互设备。本发明在提供多人多笔交互的同时,也定义了潜在的冲突检测与消解方法,且操作简单、易于实现。

    一种基于草图的视频摘要生成方法

    公开(公告)号:CN101807198A

    公开(公告)日:2010-08-18

    申请号:CN201010033847.1

    申请日:2010-01-08

    IPC分类号: G06F17/30 H04N5/14

    摘要: 本发明公开了一种基于草图的视频摘要生成方法,属于人机交互领域。本方法为:1)对视频进行镜头分割,并进行镜头筛选得到关键帧;2)对关键帧进行角色分析和场景分析;并根据角色分析确定关键帧的语义重要程度;3)计算关键帧的图像质量评估值,并根据图像质量评估值和语义重要程度值,对关键帧进行筛选;4)根据步骤3)所确定的关键帧,生成视频对象的草图;5)根据摘要绘图区域大小以及每幅草图所对应视频内容的重要程度重新设定对应草图的大小;6)利用场景分析结果确定草图所在位置,生成草图之间的连接线,对草图进行连接,生成视频摘要。本发明的方法可使草图摘要能够更加集中、有效的反应视频主要情节语义,符合用户的认知习惯。

    一种基于耳腔振动的静默语音采集处理方法及设备

    公开(公告)号:CN113810819A

    公开(公告)日:2021-12-17

    申请号:CN202111118423.X

    申请日:2021-09-23

    摘要: 本发明公开了一种基于耳腔振动的静默语音采集处理方法及设备。本方法为:1)静默语音采集单元持续监测佩戴者耳腔的震动信号,当震动信号的震动幅度或频率变化高于设定阈值时,该静默语音采集单元中的空气振动传感器、骨振动传感器同时开始进行信号采集,并将采集的信号发送到数据处理端;2)数据处理端接收到信号后,以设定时间长度为基本单位,将采集的连续语音信号、震动信号分别划分为若干帧,并计算每一帧的平均能量及平均频率,然后根据计算结果与设定能量阈值进行比较判断用户是传统语音输入或静默语音输入;3)对于传统语音输入,调用端到端语音识别模型进行语音内容识别;对于静默语音输入,则采用卷积神经网络模型对采集到的震动信号进行特征提取、融合与内容识别。

    一种基于交互时序信息的草图手势识别方法

    公开(公告)号:CN110032948B

    公开(公告)日:2021-01-12

    申请号:CN201910221914.3

    申请日:2019-03-22

    IPC分类号: G06K9/00 G06K9/62 G06F3/0488

    摘要: 本发明公开了一种基于交互时序信息的草图手势识别方法,本方法为:1)设计一组草图手势,每一草图手势匹配一对应的系统响应;2)采集用户利用所设计草图手势绘画时的用户数据;所述用户数据包括用户意图信息、手势识别结果和草图手势轨迹;3)根据用户意图信息获取交互时序信息,即转移矩阵,并为每一内核识别器设计一对应的奖励函数;4)对于一新输入的手势,利用内核识别器识别出一组手势概率,作为用户意图观察值;然后利用动态贝叶斯网络、所述转移矩阵和用户意图观测值推算出该组手势的置信度;5)利用所述奖励函数寻找当前获利最高的系统响应作为最终的系统响应结果。本发明提高了系统应用中的内核识别算法的识别性能和用户体验。