-
公开(公告)号:CN118625932A
公开(公告)日:2024-09-10
申请号:CN202410788892.X
申请日:2024-06-19
Applicant: 北京理工大学 , 北京理工大学长三角研究院(嘉兴)
Abstract: 本发明公开了一种晃动环境下眼动交互数据平滑稳定方法及系统,涉及眼动交互动态定位技术领域。方法包括:利用加权移动平均算法,对所述眼动数据流进行一次滤波处理;利用卡尔曼滤波算法对一次滤波处理后的眼动数据流进行二次滤波处理;根据二次滤波处理后的眼动数据流,利用动态反馈调节算法调整加权移动平均算法和卡尔曼滤波算法。本发明结合加权滑动平均算法和卡尔曼滤波算法,能够有效消除眼动数据中的震荡噪声,实现复杂眼动交互中眼动数据的平滑和稳定。
-
公开(公告)号:CN119987540A
公开(公告)日:2025-05-13
申请号:CN202411931121.8
申请日:2024-12-26
Applicant: 北京理工大学
IPC: G06F3/01 , G06V40/18 , G06V10/774 , G06V10/764 , G06V10/82 , G06N20/10
Abstract: 一种面向晃动环境的眼动交互意图识别动态优化方法,属于人机交互与人因工程领域。本发明采用眼动追踪和机器学习技术,构建交互意图识别优化模型,提高对交互意图识别优化模型的训练效率,用户在使用眼动交互时无需刻意改变其自然的视线移动习惯,提高交互的自然性和直观性,使得用户能更快地适应和掌握眼动交互,降低学习成本,增强用户在使用眼动交互时的满意度和舒适度。将晃动环境参数化并聚合为晃动因子,建立晃动因子与眼动交互意图识别模型最佳分类阈值的映射关系,实现不同晃动环境下眼动交互意图识别模型的准确率动态调整,能够适应各种不同的晃动条件,以减少或补偿晃动环境带来的负面影响,确保在晃动环境下眼动交互的准确性和可靠性。
-
公开(公告)号:CN115686193A
公开(公告)日:2023-02-03
申请号:CN202211099115.1
申请日:2022-09-06
Applicant: 北京理工大学
IPC: G06F3/01 , G06V40/20 , G06V10/774 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明公开的一种增强现实环境下虚拟模型三维手势操纵方法及系统,属于增强现实的人机交互领域。本发明包括数据采集与处理模块、虚拟手模块、碰撞计算模块、手势意图识别模块。本发明根据物体抓握物理过程特点和增强现实环境构建“抓握副”条件,基于“抓握副”构建抓握意图识别算法;根据抓握意图识别算法和“抓握副”条件判定为抓握状态,无需基于多个接触点的接触计算来判断是否完成抓握,使抓取意图判断更加灵活,更接近真实三维手势操纵情况,更适应复杂手势交互场景,也更加符合用户直观交互感受,同时,如果存在多对“抓握副”,则多个组成抓握副的接触点都将参与到交互意图识别中,提高手势交互意图识别的鲁棒性、灵活性、效率和沉浸感。
-
公开(公告)号:CN114971219A
公开(公告)日:2022-08-30
申请号:CN202210494060.8
申请日:2022-05-05
Applicant: 北京理工大学
IPC: G06Q10/06 , G06F3/01 , H04L67/1097
Abstract: 本发明涉及一种基于增强现实的多视角人因动态评价方法及系统,属于人机交互与人因工程领域。本发明基于增强现实技术以及动作捕捉系统,根据需要进行人因分析的场景模型,在增强现实客户端完成加载与定位,增强现实客户端用户穿戴动作捕捉系统在增强现实场景中进行操作,动作捕捉系统采集人体运动学数据,中心服务端输出增强现实客户端的实时动态人因分析结果,实现实时准确地人因评价动态反馈,并在操作结束后,自动导出人因分析报告。本发明采用增强现实技术构建人因分析场景,建模工作量小、耗时短、成本低;采用动作捕捉系统获取人体运动学数据,精度高,滞后小。
-
公开(公告)号:CN115167681A
公开(公告)日:2022-10-11
申请号:CN202210852490.2
申请日:2022-07-19
Applicant: 北京理工大学
Abstract: 本发明公开的基于增强现实的数字人辅助可达性验证方法,属于产品可达性验证领域。本发明利用可穿戴增强现实设备提供人机交互环境,无需对可达性验证环境和相关工具进行完全建模;借助Vuforia插件标定数字人与操作人员的初始位置,将数字人投射在现实世界中,动作捕捉设备捕捉人体数据并驱动数字人与操作人员同步动作,实现在可达性验证过程中虚拟数字人始终叠加在真实操作人员身上;并基于实时的碰撞检测方法,检测虚拟数字人与产品三维模型在交互过程中的干涉情况,验证产品可达性的好坏。本发明试用于产品维修、维护及装配等领域,通过增强现实的数字人辅助可达性验证方法,实现提升用户交互性,缩短可达性验证周期的目的。
-
公开(公告)号:CN119989868A
公开(公告)日:2025-05-13
申请号:CN202411930794.1
申请日:2024-12-26
Applicant: 北京理工大学
IPC: G06F30/27 , G06F30/17 , G06N3/006 , G06F17/11 , G06F111/04 , G06F111/06 , G06F119/08
Abstract: 一种复杂装备多尺度与多领域数字孪生模型构建方法,属于智能制造及工程技术领域。本发明实现方法为:针对机床装备包含多尺度层次以及多学科领域的特点,采用Modelica建模语言,通过非因果建模和连接器建模,以统一的建模方式展示物理实体装备的多尺度层次和多学科领域,突破设备复杂耦合特性的限制;以机床数字孪生模型输出与机床试验台架测试之间的误差最小为优化目标,考虑主轴刚度、主轴尺寸、加工温度、热传导率、热膨胀系数修正变量,构建机床数字孪生模型修正优化问题模型;采用“榜样—精英”学习策略的改进粒子群算法寻找最优的参数组合,实现机床数字孪生模型修正,提高孪生模型与物理装备的一致性,保证机床装备数字孪生模型的准确性。
-
公开(公告)号:CN116029139A
公开(公告)日:2023-04-28
申请号:CN202310058950.9
申请日:2023-01-16
Applicant: 北京理工大学
IPC: G06F30/20 , A61B5/11 , A61B5/22 , G06F3/01 , G06F119/14 , G06F111/18
Abstract: 本发明公开的一种基于增强现实的多视角脊柱生物力学动态分析方法及系统,属于人机交互与生物力学领域。本发明的系统包括中心客户端和增强现实客户端。中心客户端包括脊柱生物力学分析模块和可视化交互模块,分别为中心客户端用户提供人体腰骶部受力的动态评估和可视化的实时信息反馈。增强现实客户端为增强现实客户端用户提供手势交互方式,实现在增强现实场景中相应的交互动作行为,用户基于交互系统,通过手势选择模型并将选择的模型下载到当前环境中,通过手势与下载的模型进行交互;通过搭建动作捕捉环境,对增强现实客户端用户人体作业姿势的实时采集,实现虚拟人体模型的实时运动仿真。本发明能够优化作业姿势,减少脊柱骨骼肌肉疾患。
-
公开(公告)号:CN115481489A
公开(公告)日:2022-12-16
申请号:CN202211151732.1
申请日:2022-09-21
Applicant: 北京理工大学
IPC: G06F30/15 , G06F30/20 , G06T19/00 , G06F111/18 , G06F113/28
Abstract: 本发明公开的一种基于增强现实的白车身与生产线适配性验证系统及方法,属于白车身与生产线适配性验证技术领域。本发明通过人机交互辅助验证方法在生产线现场布置虚拟网格点,基于图形学算法生成拟合生产线表面的虚拟网格,实现生产线轻量化即时建模,在计算机视觉感知信息基础上融合现场修正网格点布局信息,提高对生产线环境感知精度;基于拟合得到的生产线表面虚拟网格边界点与预定义白车身模型上的检测点,通过AR距离测量方法实现白车身与真实生产线环境的风险点测距,利用AR环境下映射风险点测距获取真实环境测距点空间距离,有效避免现有空间测距方法下无法处理遮挡、环境复杂条件下测量点无法获取问题,实现简单准确的空间距离测量。
-
公开(公告)号:CN115762539A
公开(公告)日:2023-03-07
申请号:CN202211327715.9
申请日:2022-10-27
Applicant: 北京理工大学
Abstract: 本发明涉及强化人体感知特性的分频神经网络汉语语音编码方法,属于计算机与信息科学技术领域。本发明首先根据人体对频率变化感知的非线性特点将汉语语音低频段转化为语谱图、高频段转化为梅尔频谱;然后融合残差网络和VQ‑VAE‑2架构构建语音编解码模型,使用编码器提取语谱图的能量分布特征和梅尔频谱的频率分布特征,并进行矢量量化得到压缩编码向量;最后,使用解码器重建频谱图并采用基于截断牛顿算法的梯度更新方法重建语音信号。本发明在较低编码率条件下,充分考虑人体对汉语语音不同频段的感知差异,有效提升了重建语音信号的质量。
-
公开(公告)号:CN115481537A
公开(公告)日:2022-12-16
申请号:CN202211150646.9
申请日:2022-09-21
Applicant: 北京理工大学
IPC: G06F30/20 , G06F30/15 , G06T19/00 , G06F111/18 , G06F113/28 , G06F119/18
Abstract: 本发明公开的一种基于增强现实技术的手持工装适用性验证方法及系统,属于手持工装领域。本发明根据对已有三维实时跟踪注册成果及实验效果分析,有针对性地系统构建待识别物评分指标;通过自然特征点匹配方法对待识别物进行识别,将待检测产品数字模型叠加于验证环境,实现手持工装虚拟模型和实体模型的虚实融合和同步作业,基于增强现实技术实现手持工装适用性验证。本发明能够提高用户交互性、降低生产成本、提高生产质量、缩短生产周期。此外,在构建手持工装适用性验证环境时,利用stl模型压缩处理的方法,使得待检测产品数字模型和手持工装虚拟模型信息在压缩后顶点数目显著减少,节省其在AR设备中占用的存储量,进一步提高验证效率。
-
-
-
-
-
-
-
-
-