-
公开(公告)号:CN118781178B
公开(公告)日:2025-01-21
申请号:CN202411266793.1
申请日:2024-09-11
Applicant: 北京航空航天大学杭州创新研究院 , 北方工业大学
Abstract: 本发明公开了一种基于表面重建和三重积分的体积测量方法,包括以下步骤:1、使用三维扫描设备和图像拍摄设备获取点云和图像;2、图像和点云的标定和配准;3、点云和图像的融合;4、神经网络的训练与点云分割;5、点云的重建与计算。该测量方法能够有效精准的测量各种不规则物体体积,点云分割中深度学习的应用使得能够适应不同场景,对点云的表面重建可以在三维空间中较大程度上还原物体原有姿态,对其参数化方程三重积分可以快速准确计算其体积,拥有效率高、精度高、自动化程度高等优点。
-
公开(公告)号:CN114681882A
公开(公告)日:2022-07-01
申请号:CN202210445078.9
申请日:2022-04-26
Applicant: 北方工业大学
Inventor: 李丹
Abstract: 本发明公开了一种由人工智能控制肌肉外骨骼的篮球投篮训练装置,包括人体骨骼数据采集装置、AI控制装置和全身肌肉外骨骼装置,AI控制装置内置有投篮动作数据库;人体骨骼数据采集装置采集受训者的身体骨骼尺寸,将获取的数据传递给AI控制装置;AI控制装置通过有线或无线方式控制全身肌肉外骨骼装置,按照受训者的身体骨骼尺寸数据进行相应变形;全身肌肉外骨骼装置附着在受训者的全身直至五指,控制受训者全身的运动训练,并通过肌肉外骨骼伸缩单元对受训者起到助力或阻力来纠正错误动作。上述装置通过AI智能控制保证动作规格稳定,使训练者能真切感知动作的幅度、速度、力量等多项运动动作规格,满足不同训练者的需求。
-
公开(公告)号:CN115944306A
公开(公告)日:2023-04-11
申请号:CN202211095574.2
申请日:2022-09-06
Applicant: 北方工业大学
IPC: A61B5/369 , G06F3/01 , G06F18/23 , G06F18/2415 , G06N3/0464 , G06N3/08
Abstract: 本发明提供一种基于对抗式卷积神经网络的事件相关电位识别方法,包括:采集待识别的脑电图信号;构建特征提取网络,包括多层卷积层;经过对抗式学习后,特征提取网络逐层提取脑电图信号在时间、空间和频率维度上关于事件相关电位的特征向量组;构建分类器,包括两层softmax层;通过分类器对事件相关电位的特征向量组进行识别,获得事件相关电位识别结果;其中,特征提取网络对抗学习时,对每次迭代所提取出的特征向量组进行聚类,计算聚类后错分样本占比,并以敌对的方式将这种损失以一定权重反向传播到特征提取网络进行学习。该方法提升了ERP识别的精度,并且具有良好的稳定性。
-
公开(公告)号:CN114343636A
公开(公告)日:2022-04-15
申请号:CN202111622699.1
申请日:2021-12-28
Applicant: 北方工业大学
Abstract: 本申请提供了一种情绪调节方法及装置,包括:获取目标用户的脑电数据;对所述脑电数据进行去噪处理,得到初始脑电数据;将所述初始脑电数据输入预设深度学习模型内的图卷积神经网络层,得到所述初始脑电数据之间的区域关系;将所述初始脑电数据输入预设深度学习模型内的长短期记忆神经网络层,得到所述初始脑电数据的变换过程;基于所述初始脑电数据之间的关系和所述初始脑电数据的变换过程通过预设深度学习模型内的密集层,得到所述目标用户的情绪类别,针对所述情绪类别进行情绪调节。实时获取目标用户脑电数据,并通过预设模型,实时分析、识别目标用户的情绪状态,从而缓解用户情绪。
-
公开(公告)号:CN117974830A
公开(公告)日:2024-05-03
申请号:CN202410230294.0
申请日:2024-02-29
Applicant: 北方工业大学
IPC: G06T11/00 , G06N3/0464 , G06N3/048 , G06N3/08
Abstract: 本发明公开了一种基于双网络交互学习的低剂量CT图像重建方法,首先对收集到的原始CT数据进行预处理;建立两个相互辅助的同僚网络,即特征融合低剂量CT图像重建网络SCRED,并搭建双网络交互学习框架MFRD,用于交流融合两个网络学习到的知识,充分利用图像隐藏信息;将处理后的CT数据输入到建立的CT图像重建网络SCRED,并在双网络交互学习框架下对该CT图像重建网络SCRED进行训练;将低剂量CT图像输入到步骤4训练好的CT图像重建网络SCRED中,输出高质量CT图像。该方法充分复用了CT图像信息,可以较好地恢复去噪后图像的细节和结构信息,而且稳定可靠、可扩展性好。
-
公开(公告)号:CN114419716B
公开(公告)日:2024-03-15
申请号:CN202210094018.7
申请日:2022-01-26
Applicant: 北方工业大学
IPC: G06V40/16 , G06V10/82 , G06N3/08 , G06N3/0464
Abstract: 本发明提供针对连续人脸图像的一种面部关键点标定的校准方法,包括:以通过DAN网络获得的第一张人脸图像的各关键点作为备选关键点,对后一帧的人脸图像的各关键点依次进行校准:获得区域梯度特征向量,计算前后帧区域梯度特征向量的相似性结果α1;获得区域卷积特征,计算前后帧人脸图像中的区域卷积特征的相似性结果α2;将相似性结果α1与相似性结果α2按比重相加,得到相似性结果β:若大于预设阈值,则备选关键点为后一帧人脸图像校准后的关键点;若小于预设阈值,在预设的关键点搜索区域内搜索,直至获得大于阈值的关键点作为后一帧人脸图像校准后的关键点。本方法提高了人脸关键点的定位精度,抗噪效果,使其能够应用到对人脸关键点精度要求更高的领域中。
-
公开(公告)号:CN118781178A
公开(公告)日:2024-10-15
申请号:CN202411266793.1
申请日:2024-09-11
Applicant: 北京航空航天大学杭州创新研究院 , 北方工业大学
Abstract: 本发明公开了一种基于表面重建和三重积分的体积测量方法,包括以下步骤:1、使用三维扫描设备和图像拍摄设备获取点云和图像;2、图像和点云的标定和配准;3、点云和图像的融合;4、神经网络的训练与点云分割;5、点云的重建与计算。该测量方法能够有效精准的测量各种不规则物体体积,点云分割中深度学习的应用使得能够适应不同场景,对点云的表面重建可以在三维空间中较大程度上还原物体原有姿态,对其参数化方程三重积分可以快速准确计算其体积,拥有效率高、精度高、自动化程度高等优点。
-
公开(公告)号:CN114419716A
公开(公告)日:2022-04-29
申请号:CN202210094018.7
申请日:2022-01-26
Applicant: 北方工业大学
Abstract: 本发明提供针对连续人脸图像的一种面部关键点标定的校准方法,包括:以通过DAN网络获得的第一张人脸图像的各关键点作为备选关键点,对后一帧的人脸图像的各关键点依次进行校准:获得区域梯度特征向量,计算前后帧区域梯度特征向量的相似性结果α1;获得区域卷积特征,计算前后帧人脸图像中的区域卷积特征的相似性结果α2;将相似性结果α1与相似性结果α2按比重相加,得到相似性结果β:若大于预设阈值,则备选关键点为后一帧人脸图像校准后的关键点;若小于预设阈值,在预设的关键点搜索区域内搜索,直至获得大于阈值的关键点作为后一帧人脸图像校准后的关键点。本方法提高了人脸关键点的定位精度,抗噪效果,使其能够应用到对人脸关键点精度要求更高的领域中。
-
公开(公告)号:CN115840190A
公开(公告)日:2023-03-24
申请号:CN202211457808.3
申请日:2022-11-21
Applicant: 北方工业大学
Abstract: 本发明公开了一种基于蓝牙AOA与深度学习融合的高精度定位方法,通过到达角定位AOA主节点蓝牙基站与多个被动节点蓝牙基站,获取蓝牙终端的原始采样值I和Q的相位数据,并将得到的IQ相位数据发送到PC处理终端;PC处理终端将获得的IQ相位数据输入到训练好的神经网络模型中,获得蓝牙终端的实时定位结果;根据蓝牙终端实时定位结果判断所述蓝牙终端的运动状态为动态还是静态;若为动态,则基于扩展卡尔曼滤波算法来优化定位结果;若为静态,则基于多点平均滤波算法来优化定位结果。该方法将蓝牙AOA与深度学习网络相结合,实现了相位数据到空间坐标的快速映射,并采用针对不同状态下不同的滤波方法,使数据更准确。
-
公开(公告)号:CN114681882B
公开(公告)日:2023-03-07
申请号:CN202210445078.9
申请日:2022-04-26
Applicant: 北方工业大学
Inventor: 李丹
Abstract: 本发明公开了一种由人工智能控制肌肉外骨骼的篮球投篮训练装置,包括人体骨骼数据采集装置、AI控制装置和全身肌肉外骨骼装置,AI控制装置内置有投篮动作数据库;人体骨骼数据采集装置采集受训者的身体骨骼尺寸,将获取的数据传递给AI控制装置;AI控制装置通过有线或无线方式控制全身肌肉外骨骼装置,按照受训者的身体骨骼尺寸数据进行相应变形;全身肌肉外骨骼装置附着在受训者的全身直至五指,控制受训者全身的运动训练,并通过肌肉外骨骼伸缩单元对受训者起到助力或阻力来纠正错误动作。上述装置通过AI智能控制保证动作规格稳定,使训练者能真切感知动作的幅度、速度、力量等多项运动动作规格,满足不同训练者的需求。
-
-
-
-
-
-
-
-
-