一种基于场景树的用户界面生成方法

    公开(公告)号:CN113010168B

    公开(公告)日:2022-07-26

    申请号:CN202110219455.2

    申请日:2021-02-26

    Abstract: 本发明公开了一种基于场景树的用户界面生成方法,其步骤包括:1)根据用户界面需求确定用户界面的界面个数、每个界面的外观和功能;2)根据步骤1)的信息构建界面树;3)选中该界面树中一节点,对该节点对应的界面上的图元进行编辑;其中,编辑后的每个界面均具有退出或返回交互图元;4)选中该界面树中的一节点,进入到与其对应的状态迁移图编辑界面,对其进行编辑;初次进入该节点的状态迁移图编辑界面,根据所述界面树绘制该节点、该节点的子树节点、该节点的退出或返回交互任务,生成该节点的状态迁移图;5)将编辑后的界面树通过目标语言的生成模板转换为相应的代码,然后对代码进行编译生成该用户界面。

    一种基于笔和语音的协同任务神经系统疾病辅助诊断系统

    公开(公告)号:CN108962397B

    公开(公告)日:2022-07-15

    申请号:CN201810576107.9

    申请日:2018-06-06

    Abstract: 本发明属于数字医疗领域,涉及一种基于笔和语音的多通道多任务神经系统疾病辅助诊断系统。该系统包括数据采集单元、数据预处理单元、多通道交互特征获取单元和模型构建与反馈单元。该系统对用户的笔迹信号与声音信号进行同步任务采集,利用大脑神经状态的改变对运动认知、发音、多任务协同处理等方面的影响提取多通道特征,不仅考虑神经系统疾病在笔交互通道、语音交互通道单一通道内的生理表征,同时考虑多任务时笔通道和语音通道协作时不同生理通道表征的相关、互斥等通道间生理特性,最终训练决策模型分析判定用户是否患有神经系统疾病。本发明不需要任何侵入性治疗,可以实时、鲁棒、精确的进行疾病辅助诊断。

    一种可屏幕内触发边缘手势的控制方法

    公开(公告)号:CN113050868A

    公开(公告)日:2021-06-29

    申请号:CN202110372598.7

    申请日:2021-04-07

    Abstract: 本发明公开了一种可屏幕内触发边缘手势的控制方法,其步骤包括:当在屏幕边缘区域接收到单次或多次手势轨迹时,则利用手势识别模块将接收的手势轨迹识别为对应的边缘手势,并利用边缘手势控制模块触发该边缘手势所映射的功能;当在屏幕内部区域接收到预定义手势或输入信息时,首先在屏幕上绘制虚拟屏幕边缘,生成一虚拟屏幕;然后当在该虚拟屏幕的边缘接收到单次或多次手势轨迹时,则利用手势识别模块将接收的手势轨迹识别为对应的边缘手势,并利用边缘手势控制模块触发该边缘手势所映射的功能;当在该虚拟屏幕的内部区域接收到输入手势轨迹时,则利用手势识别模块识别该输入手势轨迹对应的手势,并利用手势控制模块触发该手势所映射的功能。

    一种基于场景树的用户界面生成方法

    公开(公告)号:CN113010168A

    公开(公告)日:2021-06-22

    申请号:CN202110219455.2

    申请日:2021-02-26

    Abstract: 本发明公开了一种基于场景树的用户界面生成方法,其步骤包括:1)根据用户界面需求确定用户界面的界面个数、每个界面的外观和功能;2)根据步骤1)的信息构建界面树;3)选中该界面树中一节点,对该节点对应的界面上的图元进行编辑;其中,编辑后的每个界面均具有退出或返回交互图元;4)选中该界面树中的一节点,进入到与其对应的状态迁移图编辑界面,对其进行编辑;初次进入该节点的状态迁移图编辑界面,根据所述界面树绘制该节点、该节点的子树节点、该节点的退出或返回交互任务,生成该节点的状态迁移图;5)将编辑后的界面树通过目标语言的生成模板转换为相应的代码,然后对代码进行编译生成该用户界面。

    一种基于化学反应的痛觉反馈柔性可穿戴设备及方法

    公开(公告)号:CN112947745A

    公开(公告)日:2021-06-11

    申请号:CN202110125001.9

    申请日:2021-01-29

    Abstract: 本发明公开一种基于化学反应的痛觉反馈柔性可穿戴设备及方法,该设备包括绑带、三层结构、微型液体泵、储液仓和控制电路板;三层结构包括散热系统层、温度控制层和化学物质输送层;化学物质输送层上设有微流管道,可将产生疼痛感的化学药剂释放到穿戴者的皮肤表面;温度控制层包括温度传感器和帕尔贴,底部设有用于嵌入皮肤和传热的微针;控制电路板根据VR系统的虚拟场景事件信号,控制微型液体泵的启停和功率,控制帕尔贴产生的温度,接收温度传感器的实时温度数据。本发明利用产生疼痛感的化学药剂对皮肤的微细化学反应来产生痛感,该痛感结合温度来共同模拟多样化的痛感,配合VR设备来增强虚拟现实。

    一种基于人工势能场的目标选择方法及电子装置

    公开(公告)号:CN111984160A

    公开(公告)日:2020-11-24

    申请号:CN202010598176.7

    申请日:2020-06-28

    Abstract: 本发明提供一种基于人工势能场的目标选择方法及电子装置,该方法包括设定交互界面屏幕坐标系,获取在交互设备界面中的各待选目标坐标、第j时刻光标坐标及第j-1时刻光标坐标;计算各待选目标对第j时刻光标施加的引力或斥力,逐步引导光标向目标移动,直到第m时刻光标坐标与目标坐标相同,2≤j≤m。本发明利用势能场中的引力作用,对输入信号进行位置矫正,实现光标快速选择目标,提高交互的稳定性,不仅适应单目标、多目标的选择过程,还适应一维、二维及三维的目标选择过程。

    一种基于用户表现模型矫正的移动目标选择方法及系统

    公开(公告)号:CN108829248B

    公开(公告)日:2020-11-20

    申请号:CN201810558622.4

    申请日:2018-06-01

    Abstract: 本发明提出一种基于用户表现模型矫正的移动目标选择方法及系统,该方法的步骤包括:将显示界面进行维度匹配,将界面内包含的可选目标用目标集合表示;获取一选择落点,根据该选择落点计算目标集合内每个可选目标被选中的概率,得到概率集合;将概率集合中的最大概率对应的可选目标作为最终选中的目标。本发明针对移动目标选择任务,建立一个目标选择的落点分布模型,进而通过该模型对移动目标选择进行矫正,实现此类交互任务效率的提升。

    一种基于运动趋势信息的三维环境下辅助目标选择方法及系统

    公开(公告)号:CN111831178A

    公开(公告)日:2020-10-27

    申请号:CN202010608808.3

    申请日:2020-06-29

    Abstract: 本发明提出一种三维空间中基于运动趋势信息的辅助目标选择方法及系统。该方法的步骤包括:在虚拟空间中建立坐标系,并将界面内每个可选目标用目标集合表示;获取用户实际选择轨迹,根据该用户实际选择轨迹对每个可选目标预测用户的选择轨迹,得到预测用户选择轨迹;计算用户实际选择轨迹与每个可选目标的预测用户选择轨迹的相似度,得到轨迹相似度集合;根据轨迹相似度集合得到相似度最高的预测用户选择轨迹,将其对应的可选目标作为激活目标。本发明针对三维空间中的目标选择任务,利用用户选择目标的轨迹趋势信息,在用户选择目标过程中预测用户意图目标,实现此类交互任务效率的提升。

    基于通用绘图任务的触控交互运动用户特征提取方法和辅助疾病检测系统

    公开(公告)号:CN111354458A

    公开(公告)日:2020-06-30

    申请号:CN201811591897.4

    申请日:2018-12-20

    Abstract: 本发明属于数字医疗领域,具体涉及一种基于通用绘图任务的触控交互运动用户特征提取方法和辅助疾病检测系统。利用触控笔和绘图板进行于与任务无关的用户特征提取,对神经系统疾病患者的手部运动功能进行评价,实现了一个基于通用绘图任务的神经系统疾病日常监测和早期预警系统,对系统的分类模型进行了分析和验证,结果显示该系统能够对神经系统疾病进行准确预测。本发明是首个利用笔交互技术在一般绘图任务中实现自动识别神经系统疾病的系统,采用的特征提取方法可以用来构建鲁棒且准确的识别模型,依照本系统构建的绘图系统,可以在无监督的、任务无关的情况下用于包括但不限于神经系统疾病检测领域的自动诊断。

    基于论辩挖掘的一种无监督论点提取方法

    公开(公告)号:CN109902284A

    公开(公告)日:2019-06-18

    申请号:CN201811649096.9

    申请日:2018-12-30

    Abstract: 本发明实施例提供了一种基于论辩挖掘的一种无监督论点提取方法,涉及自然语言处理技术领域。该方法包括以下步骤:构建图模块,将一篇文本构建为图模块;创建位置模块,计算此篇文本中句子在位置模块中的权重;创建指示词模块,计算此篇文本中句子在指示词模块中的权重;创建联合排序模块,用以得到上述三个模块的线性加权之后的最终分数。本发明从无监督的角度出发,避免了有监督机器学习算法对标注语料库的依赖。将文本建立为图模块,用以探索图模块算法和论辩挖掘中论点识别任务的相关性。从速度上而言,能够达到实时的效率,减少了前期大量的训练时间。

Patent Agency Ranking