一种神经网络的训练方法、装置及设备

    公开(公告)号:CN114492801A

    公开(公告)日:2022-05-13

    申请号:CN202210402980.2

    申请日:2022-04-18

    Inventor: 徐波 唐伟 徐博

    Abstract: 本发明公开了一种神经网络的训练方法、装置及设备,其中,所述方法包括:构建至少一个计算单元;将待训练神经网络分别放置到所述至少一个计算单元内,每个计算单元执行参数生成操作,分别得到每个计算单元生成的梯度数据;将所述每个计算单元得出的梯度数据进行平均化,得到平均化后的梯度数据;根据所述平均化后的梯度数据更新所述待训练神经网络;任一所述计算单元的参数生成操作包括:运行所述计算单元中的待训练神经网络,生成轨迹数据;根据所述轨迹数据,生成梯度数据。通过上述方式,本发明提高了神经网络的训练效率。

    一种资源分配方法、装置及设备

    公开(公告)号:CN114146420A

    公开(公告)日:2022-03-08

    申请号:CN202210126379.5

    申请日:2022-02-10

    Abstract: 本发明公开了一种资源分配方法、装置及设备,其中,所述方法包括:获取至少两个虚拟对象对应的交互环境的至少两个特征信息;将所述至少两个特征信息映射成一个总虚拟对象对应的交互环境的总特征信息;根据所述总特征信息,获得第一分配指令;转换所述第一分配指令,获得包含第二分配动作的第二分配指令;根据所述第二分配指令,控制所述至少两个虚拟对象执行对应的第二分配动作。通过上述方式,本发明可以在多目标多资源的分配场景下,提高学习最优资源分配方法的效率。

    基于卷积神经网络的短文本分类方法

    公开(公告)号:CN104834747B

    公开(公告)日:2018-04-27

    申请号:CN201510271672.0

    申请日:2015-05-25

    Abstract: 本发明是一种基于卷积神经网络的短文本分类方法,该卷积神经网络共分五层:第一层,获取短文本中的多尺度候选语义单元;第二层,计算每一个候选语义单元与向量空间中所有词表示向量的欧式距离并找出最近邻的词表示,选择所有满足欧式距离预设阈值的最近邻词表示构建语义扩展矩阵;第三层,用多个不同宽度、不同权值的核矩阵分别对短文本的映射矩阵和语义扩展矩阵进行二维卷积运算提取局部卷积特征并生成多层局部卷积特征矩阵;第四层,对多层局部卷积特征矩阵进行下采样并得到多层全局特征矩阵,将所述全局特征矩阵进行非线性正切变换并转换为定长的语义特征向量;第五层,将语义特征向量赋予分类器,对短文本的类别进行预测。

    基于语义图谱的短文本特征扩展方法

    公开(公告)号:CN104391942A

    公开(公告)日:2015-03-04

    申请号:CN201410686237.X

    申请日:2014-11-25

    CPC classification number: G06F17/2715 G06F17/2785 G06K9/6267

    Abstract: 本发明公开了一种基于语义图谱的短文本特征扩展方法,包括以下步骤:利用短文本训练数据集进行主题建模,抽取主题词分布;对主题词分布进行重排序;构建候选关键词词典和主题-关键词语义图谱;基于链接分析的方法计算候选关键词和种子关键词的综合相似度评价,选择最相似的候选关键词完成对短文本的扩展。本发明方法较基于语言模型的短文本特征表示方法操作简单,执行效率高,而且充分利用关键词之间的语义关联信息,较传统的基于词袋模型的短文本特征表示方法,有效缓解了数据稀疏性问题和语义敏感性问题,不依赖于外部大规模辅助训练语料或者搜索引擎。

    基于多配置分块上下文转换器模型的语音识别方法及装置

    公开(公告)号:CN119446125B

    公开(公告)日:2025-04-29

    申请号:CN202510027286.0

    申请日:2025-01-08

    Inventor: 王方圆 徐博 徐波

    Abstract: 本发明提供一种基于多配置分块上下文转换器模型的语音识别方法及装置,属于人工智能技术领域,该方法包括:获取待识别语音的特征序列;将特征序列输入至经过训练的语音识别模型,利用语音识别模型对待识别语音进行语音识别,得到语音识别模型输出的识别结果;语音识别模型为多配置分块上下文转换器MCC‑Transformer模型,MCC‑Transformer模型是在转换器模型的基础上,在编码器中引入一个语音MCC‑Transformer块构建而成,语音MCC‑Transformer块由多个MCC‑Transformer块堆叠而成。本发明在编码器中引入一个由多个MCC‑Transformer块堆叠而成的语音MCC‑Transformer块,提高了语音识别的准确率。

    基于大语言模型的行动方案生成模型的训练方法及装置

    公开(公告)号:CN118152528A

    公开(公告)日:2024-06-07

    申请号:CN202410222968.2

    申请日:2024-02-28

    Abstract: 本发明提供一种基于大语言模型的行动方案生成模型的训练方法及装置,其中方法包括:获取行动方案样本的背景信息,以及初始大语言模型;基于背景信息,以及通用大语言模型,构建行动方案样本的想定数据集;基于想定数据集,以及通用大语言模型,构建行动方案样本的问题数据集;基于问题数据集,以及通用大语言模型,构建行动方案样本的方案数据集;基于问题数据集以及方案数据集,对初始大语言模型进行训练,得到行动方案生成模型。本发明提供的方法,基于连续多阶段的数据集构建,提升了训练数据的全面性、准确性、可定制性。并通过构建得到的数据集对初始大语言模型进行微调训练,提升行动方案生成模型的准确性、可行性、实用性。

    一种资源分配系统的训练方法、装置及设备

    公开(公告)号:CN114327916B

    公开(公告)日:2022-06-17

    申请号:CN202210232543.0

    申请日:2022-03-10

    Abstract: 本发明公开了一种资源分配系统的训练方法、装置及设备,其中,所述方法包括:封装第一算法和第一仿真引擎,得到初始模型的第一执行程序;基于所述初始模型运行所述第一执行程序,生成至少一组态势数据;针对所述至少一组态势数据中的每一组态势数据执行训练操作,直到所述至少一组态势数据对应的执行结果均满足相应条件,得到所述资源分配系统。通过上述方式,本发明建立了一个可扩展可复用的资源分配系统,该资源分配系统能够实现多目标多资源动态分配的智能决策。

    一种资源分配方法、装置及设备

    公开(公告)号:CN114146420B

    公开(公告)日:2022-04-22

    申请号:CN202210126379.5

    申请日:2022-02-10

    Abstract: 本发明公开了一种资源分配方法、装置及设备,其中,所述方法包括:获取至少两个虚拟对象对应的交互环境的至少两个特征信息;将所述至少两个特征信息映射成一个总虚拟对象对应的交互环境的总特征信息;根据所述总特征信息,获得第一分配指令;转换所述第一分配指令,获得包含第二分配动作的第二分配指令;根据所述第二分配指令,控制所述至少两个虚拟对象执行对应的第二分配动作。通过上述方式,本发明可以在多目标多资源的分配场景下,提高学习最优资源分配方法的效率。

    一种强化学习中超高精度探索环境下的状态空间处理方法、系统及电子设备

    公开(公告)号:CN113792846A

    公开(公告)日:2021-12-14

    申请号:CN202111035843.1

    申请日:2021-09-06

    Abstract: 本发明公开了一种强化学习中超高精度探索环境下的状态空间处理方法,系统及电子设备,涉及超高精度环境状态空间处理方法、系统及电子设备领域。本发明利用环境引擎对所述智能体在环境中对于威胁物和目标点的相关物理量进行采集,通过空间状态处理模块建立倒空间物理量规范,将原始空间相关物理量进行倒空间状态处理,放大所述智能体在相邻时刻间的动作上物理特征差异。再通过策略分析和策略执行结构对所述物理特征进行分析和智能体动作执行,执行的结果经环境引擎处理输入条件,输入至内部Reward函数,根据Reward函数输出结果对智能体动作制定强化学习策略,保证了智能体可在环境序列间状态差异相对自身差异数量级过小的情况下进行有效的学习训练。

    路径规划模型的训练、路径规划方法、装置及电子设备

    公开(公告)号:CN113467487A

    公开(公告)日:2021-10-01

    申请号:CN202111035827.2

    申请日:2021-09-06

    Abstract: 本发明实施例涉及强化学习技术领域,具体涉及路径规划模型的训练、路径规划方法、装置及电子设备,其中,所述训练方法包括:获取样本数据以及剩余决策次数,所述样本数据包括当前时刻的环境状态以及损失计算参数;将当前时刻的环境状态以及剩余决策次数输入路径规划模型,并利用剩余决策次数对路径规划模型预测结果中的非空动作进行约束,以输出当前时刻的执行动作并更新所述剩余决策次数,所述路径规划模型是基于强化学习模型建立的;根据当前时刻的执行动作以及损失计算参数进行损失函数的计算,并基于计算结果更新路径规划模型的参数,以确定目标路径规划模型。将决策次数作为约束条件,使得训练得到的目标路径规划模型能够应用在决策次数受限的场景下。

Patent Agency Ranking