一种人机交互的手套系统
    11.
    发明公开

    公开(公告)号:CN113552945A

    公开(公告)日:2021-10-26

    申请号:CN202110821800.X

    申请日:2021-07-16

    Abstract: 本发明公开了一种人机交互的手套系统,该系统由集成多种传感器的手套装置、手势动作识别模块、虚拟仿真环境模块和VR设备构成,其中手套装置通过集成各类刚性或柔性传感器,能够同时对多种交互数据进行采集,且手套形态能够降低设备的异物感,有助于用户进行自然的交互过程;手势动作识别模块能够利用不同类型的数据共同对手势动作进行识别,能够有效缓解单一传感器方案应用场景受限的问题,提高了手势识别的种类和准确率。为了完善交互流程的完整性,本发明系统还构建了一个虚拟仿真环境,其内部的人物模型受交互控制信号控制,同时该虚拟环境通过VR设备向用户提供视觉反馈。

    一种基于大语言模型的张量程序生成方法及系统

    公开(公告)号:CN119201132B

    公开(公告)日:2025-05-16

    申请号:CN202411688372.8

    申请日:2024-11-25

    Applicant: 浙江大学

    Abstract: 本发明公开了一种基于大语言模型的张量程序生成方法及系统,其中,方法包括以下步骤:(1)通过AI编译器测试工具nnsmith生成随机ONNX计算图;(2)将nnsmith生成的ONNX计算图导入TVM,并转换为RelayIR中间表示;(3)基于TVM内部的模型中间表示RelayIR,通过TVM中的自动调优器Ansor对模型进行调优,生成最优的张量程序,并输出调优时测量的JSON文件;(4)持续进行模型调优和张量程序测量,生成大量调优时的测量记录,形成一个张量程序数据集,数据集中包含张量程序的特征以及对应的优化pass list;(5)根据生成的张量程序数据集训练大语言模型,以实现对张量程序的理解和生成。本发明通过自动化工具和大语言模型的结合,可以实现高效的张量程序生成和优化。

    一种基于反事实遗憾最小化的虚拟自我对弈方法和装置

    公开(公告)号:CN113689001B

    公开(公告)日:2023-12-05

    申请号:CN202111004896.7

    申请日:2021-08-30

    Abstract: 本发明公开了一种基于反事实遗憾最小化的虚拟自我对弈方法和装置,应用在多方智能体参与的博弈环境中,多方智能体采用相同算法生成策略,每个策略对应待优化的算法参数,决定算法输出动作的概率值;所述方法包括:每个智能体采用反事实遗憾最小化算法根据博弈环境状态生成针对全局策略的最佳回应策略;对每个智能体的历史回应策略进行平均化得到每个智能体的平均策略;按照一定比例分别对最佳回应策略和平均策略进行采样,将采样得到的环境状态、动作的概率值以及对应的回报分别存储到平均策略经验池和最佳回应策略经验池;从平均策略经验池和最佳回应经验池中采样环境状态、动作的概率值以及对应的回报更新最佳回应策略和平均策略。

    人机智能共生平台系统
    14.
    发明公开

    公开(公告)号:CN108983636A

    公开(公告)日:2018-12-11

    申请号:CN201810636950.1

    申请日:2018-06-20

    Applicant: 浙江大学

    Abstract: 本发明公开了一种人机智能共生平台系统,包括多模态交互系统、数据处理中枢平台、人工智能算法平台和仿真系统,多模态交互系统包括KATVR模块、语音模块、眼动模块、手势模块和脑电模块,数据处理中枢平台包括交互对接模块、AI对接模块、指令融合模块和仿真环境对接模块。本发明提供的人机智能共生平台系统利用相对高度的人工智能系统自主执行任务的同时,由人类选择交由机器自主控制还是由人类进行控制,从而对双方的决策结果进行融合,以达成机器学习人,人学习机器的人机智能共生目的。

    一种适用于游戏AI的双向蒸馏方法及装置

    公开(公告)号:CN119345691B

    公开(公告)日:2025-04-11

    申请号:CN202411924647.3

    申请日:2024-12-25

    Applicant: 浙江大学

    Abstract: 本发明公开了一种适用于游戏AI的双向蒸馏方法及装置,包括:每次迭代训练中,随机从游戏AI智能体的训练群体中分离出部分智能体作为虚拟群体,并分配虚拟群体策略;将训练群体和虚拟群体部署在游戏中进行训练,训练群体使用学习策略网络进行更新,虚拟群体使用蒸馏策略网络进行更新;蒸馏策略网络包含正向蒸馏和反向蒸馏;执行正向蒸馏时,通过最小化蒸馏策略与学习策略之间的KL散度;执行反向蒸馏时,通过最大化蒸馏策略与学习策略之间的KL散度;重复上述步骤进行多次迭代训练,训练完成后利用更新后的训练群体作为最终的游戏AI智能体,并部署进游戏中。本发明使得游戏AI能够在复杂游戏场景中优化其策略分布。

    一种适用于游戏AI的双向蒸馏方法及装置

    公开(公告)号:CN119345691A

    公开(公告)日:2025-01-24

    申请号:CN202411924647.3

    申请日:2024-12-25

    Applicant: 浙江大学

    Abstract: 本发明公开了一种适用于游戏AI的双向蒸馏方法及装置,包括:每次迭代训练中,随机从游戏AI智能体的训练群体中分离出部分智能体作为虚拟群体,并分配虚拟群体策略;将训练群体和虚拟群体部署在游戏中进行训练,训练群体使用学习策略网络进行更新,虚拟群体使用蒸馏策略网络进行更新;蒸馏策略网络包含正向蒸馏和反向蒸馏;执行正向蒸馏时,通过最小化蒸馏策略与学习策略之间的KL散度;执行反向蒸馏时,通过最大化蒸馏策略与学习策略之间的KL散度;重复上述步骤进行多次迭代训练,训练完成后利用更新后的训练群体作为最终的游戏AI智能体,并部署进游戏中。本发明使得游戏AI能够在复杂游戏场景中优化其策略分布。

    一种基于节点冻结加速神经网络训练的方法及装置

    公开(公告)号:CN118133929B

    公开(公告)日:2024-08-02

    申请号:CN202410545941.7

    申请日:2024-05-06

    Applicant: 浙江大学

    Abstract: 本发明公开了一种基于节点冻结加速神经网络训练的方法及装置,其中,方法包括:(1)获取待训练的神经网络模型;(2)初始化神经网络模型,循环步骤(2‑1)~(2‑4),对神经网络模型进行训练;(2‑1)从神经网络模型的所有候选节点中选择下一个待冻结节点;(2‑2)根据待冻结节点生成对应的评估子图,用于评估待冻结节点是否可被冻结;(2‑3)若待冻结节点的收敛度未达到阈值,则更新神经网络模型的权重,并返回步骤(2‑2),若达到阈值,则执行步骤(2‑4);(2‑4)将收敛性达到设定阈值的节点进行冻结,跳过该节点的反向传播和权重更新过程;(3)模型训练完毕后进行图像分类的应用。本发明可以在尽可能减少训练精度损失的情况下加速模型训练。

    一种基于节点冻结加速神经网络训练的方法及装置

    公开(公告)号:CN118133929A

    公开(公告)日:2024-06-04

    申请号:CN202410545941.7

    申请日:2024-05-06

    Applicant: 浙江大学

    Abstract: 本发明公开了一种基于节点冻结加速神经网络训练的方法及装置,其中,方法包括:(1)获取待训练的神经网络模型;(2)初始化神经网络模型,循环步骤(2‑1)~(2‑4),对神经网络模型进行训练;(2‑1)从神经网络模型的所有候选节点中选择下一个待冻结节点;(2‑2)根据待冻结节点生成对应的评估子图,用于评估待冻结节点是否可被冻结;(2‑3)若待冻结节点的收敛度未达到阈值,则更新神经网络模型的权重,并返回步骤(2‑2),若达到阈值,则执行步骤(2‑4);(2‑4)将收敛性达到设定阈值的节点进行冻结,跳过该节点的反向传播和权重更新过程;(3)模型训练完毕后进行图像分类的应用。本发明可以在尽可能减少训练精度损失的情况下加速模型训练。

    一种启发式的线程数自动调优方法、系统及存储介质

    公开(公告)号:CN117389723A

    公开(公告)日:2024-01-12

    申请号:CN202311313195.0

    申请日:2023-10-11

    Applicant: 浙江大学

    Abstract: 本发明公开了一种启发式的线程数自动调优方法、系统及存储介质,包括:(1)获取当前主机物理线程数Nmax;(2)设置用于预热阶段的试验数据批次数K0和正式试验数据批次数K;(3)分别将线程数Nx设置为Nmax、N0=1和N1=2,执行步骤(4)和(5)以得到三个CPU利用率数值,然后执行步骤(6);(4)使用线程数Nx创建输入流水线Px,并使用Px加载K0个数据批次进行预热训练,让系统计算资源进入真实训练时的状态;(5)使用Px加载K个数据批次进行试验训练,通过采样内核数据估算当前阶段当前进程的CPU利用率;(6)利用上述结果,通过公式预测最优线程数。利用本发明,可以提高数据加载阶段的运行效率,有效避免数据加载成为训练过程的性能瓶颈。

    面向对抗任务的人机共生强化学习方法、装置、计算设备及存储介质

    公开(公告)号:CN113688977B

    公开(公告)日:2023-12-05

    申请号:CN202111004903.3

    申请日:2021-08-30

    Abstract: 本发明公开了一种面向对抗任务的人机共生强化学习方法、装置、计算设备及存储介质,包括:根据人类指导的示范数据,采用模仿学习优化CNN以得到CNN的策略函数;根据CNN的策略函数初始化PPO算法的策略网络的策略函数,为PPO算法添加目标值网络用以计算回报值,采用分布式训练方式以增加回报值的损失函数优化PPO算法;以PPO算法初始化NFSP算法中智能体的平均策略网络,并采用MCTS算法计算智能体的最佳回应策略;根据人类反馈数据训练NFSP算法的奖励值估计,依据估计的奖励值对NFSP算法中每个智能体在环境状态中进行强化学习,以优化智能体的平均策略和最佳回应策略。以提升智能体在对(56)对比文件Stefanos Doltsinis 等.A SymbioticHuman–Machine Learning Approach forProduction Ramp-up《.IEEE TRANSACTIONS ONHUMAN-MACHINE SYSTEMS》.2018,第48卷(第3期),第229-240页.周来 等.基于深度强化学习的作战辅助决策研究《.空天防御》.2018,第1卷(第1期),第31-35页.

Patent Agency Ranking