稀疏张量运算加速方法、系统、计算机设备和存储介质

    公开(公告)号:CN117149778A

    公开(公告)日:2023-12-01

    申请号:CN202311414028.5

    申请日:2023-10-30

    Abstract: 本申请涉及稀疏张量运算加速领域,特别是涉及一种稀疏张量运算加速方法、系统、计算机设备和存储介质,所述方法包括:读取两稀疏张量的压缩表示元数据信息,确定各稀疏张量中非零元素被标记为无效计算元素时所对应的另一个稀疏张量的起始非缩并维度索引和终止非缩并维度索引,并以键值对的形式存储在无效计算元素标记范围映射表中;对所述两稀疏张量进行自适应协同分块,得到所述两稀疏张量的预分块信息;基于所述无效计算元素标记范围映射表以及所述两稀疏张量的预分块信息,得到最终分块;将所述最终分块依次搬运至更内层缓存,直至完成计算。本发明减少运行时稀疏张量数据分块划分的重复性操作,进一步节省稀疏张量运算时间。

    模型参数更新方法、装置、计算机设备和存储介质

    公开(公告)号:CN117057439A

    公开(公告)日:2023-11-14

    申请号:CN202310893300.6

    申请日:2023-07-20

    Abstract: 本申请涉及一种模型参数更新方法、装置、计算机设备和存储介质。所述方法包括:接收联邦学习服务端发送的针对各联邦学习客户端所共有的数据分布预测模型的参数更新指令;其中,参数更新指令携带数据分布预测模型的共享参数和特定参数;响应于参数更新指令,对共享参数和特定参数进行更新,得到更新后的共享参数和更新后的特定参数;将更新后的共享参数发送至联邦学习服务端,并将更新后的特定参数保留在本地;接收联邦学习服务端对共享参数聚合处理后发送的聚合共享参数;基于聚合共享参数和更新后的特定参数确定对应的目标共享参数和目标特定参数。采用本方法能够解决数据异质性问题,提高数据分布预测模型的准确性。

    计算机程序的编译调优方法、装置和存储介质

    公开(公告)号:CN116991429A

    公开(公告)日:2023-11-03

    申请号:CN202311266395.5

    申请日:2023-09-28

    Abstract: 本申请涉及一种计算机程序的编译调优方法、装置和存储介质,其中,该编译调优方法包括:选择样本硬件集合和样本程序集合并为每个样本程序随机生成优化序列,对每种样本程序与优化序列的组合进行编译、特征抽取以及运行,得到训练数据集,基于训练数据集对预设的多任务学习模型进行训练,得到预训练模型,基于预训练模型进行成本函数模型的初始化,得到目标成本函数模型,利用该目标成本函数模型对目标源程序进行调优,得到目标源程序的最优优化序列。通过本申请,解决了相关技术中计算机程序编译调优效率低下的问题,提高了计算机程序的编译调优效率。

    基于人工智能的编译器自动调优方法及装置

    公开(公告)号:CN116931955A

    公开(公告)日:2023-10-24

    申请号:CN202311202659.0

    申请日:2023-09-18

    Abstract: 本说明书公开了基于人工智能的编译器自动调优方法及装置,在此方法中,将程序输入到模型中得到各优化序列,编译器针对每个优化序列对程序进行编译运行得到实际运行时间,据此来调整智能体模型输出各优化序列的概率,使得训练后的智能体模型能够输出最优的优化序列,而编译器使用最优优化序列对待运行程序进行编译优化,从而在一定程度上提高运行效率和减少资源浪费。

    基于动态DAG的多处理器任务调度方法、装置及设备

    公开(公告)号:CN116880994A

    公开(公告)日:2023-10-13

    申请号:CN202311151854.5

    申请日:2023-09-07

    Abstract: 本发明公开了一种基于动态DAG的多处理器任务调度方法、装置及设备,该方法包括:根据任务之间的调度依赖关系构建DAG图;统计每一个任务在处理器上运行时间内的能量消耗;统计每一个处理器以最大频率运行时每一个任务节点的可靠性;根据DAG图计算每一个任务节点的出度并根据出度的大小降序排序构建出度队列;根据DAG图计算每一个任务节点的向上排序值并根据排序值降序构建向上排序队列;设定平衡比重参数,遍历并判断向上排序队列中的任务节点在出度队列中的相对位置,使用相关的公式进行任务节点的调度分配,直到遍历完节点完成调度分配。通过本发明方法能够在能量损耗、及时性和可靠性上达到较好的平衡,提高任务调度性能。

    一种模型训练的方法、装置、存储介质及电子设备

    公开(公告)号:CN116756293A

    公开(公告)日:2023-09-15

    申请号:CN202311010104.6

    申请日:2023-08-11

    Abstract: 本说明书公开了一种模型训练的方法、装置、存储介质及电子设备,预先将文本对话生成模型的一次迭代训练过程划分为若干训练阶段,针对该文本对话生成模型的每个训练阶段,获取用于完成该训练阶段的各文本特征,作为当前文本特征,根据各当前文本特征及预设的该训练阶段的精度需求,对各当前文本特征进行聚类,得到聚类后的文本特征,对该聚类后的文本特征进行稀疏处理,得到稀疏后的文本特征,根据该稀疏后的文本特征,执行该训练阶段的训练。本方法通过将模型一次迭代过程分为多个阶段,并根据各阶段的精度需求,对文本特征进行聚类,再稀疏聚类后的文本特征,以根据稀疏聚类后的文本特征对文本对话生成模型进行训练。

    基于参数计算和通信调度的分布式训练加速方法和系统

    公开(公告)号:CN116258197B

    公开(公告)日:2023-09-08

    申请号:CN202310545694.6

    申请日:2023-05-16

    Abstract: 基于参数计算和通信调度的分布式训练加速方法,包括:根据反向传播算法各层梯度之间不存在依赖关系的特点,通过调整梯度计算顺序,优先计算模型靠前层的梯度,从而提早梯度的传输时间,使得下轮该层的前向传播过程能够更早开始;对于梯度传输过程,通过动态枚举梯度拆分或融合阈值,并结合实时运行情况来选择性能最优的方案。还包括一种基于参数计算和通信调度的分布式训练加速系统。本发明增加了计算和通信之间的覆盖度,提升了训练性能,且实现上简单灵活,能够快速适配不同的模型及训练环境。

    一种代价模型训练的方法、装置、存储介质及电子设备

    公开(公告)号:CN116304720B

    公开(公告)日:2023-08-25

    申请号:CN202310564363.7

    申请日:2023-05-18

    Abstract: 本说明书公开了一种代价模型训练的方法、装置、存储介质及电子设备。本方法使用各算子的特征以及各硬件平台的特征构造训练样本,并针对每个算子,将该算子的运行代码在各硬件平台上的实际运行时间作为该算子对应的训练样本的标注。将训练样本输入代价模型的特征提取层,通过各硬件平台对应的门控网络层的加权矩阵,确定训练样本对应各硬件平台的预测运行时间,根据预测运行时间与实际运行时间之间的差异训练代价模型。通过将各硬件平台的特征加入训练样本、在代价模型中增加针对各硬件平台的门控网络以及针对各硬件平台的输出层等创新的方式,训练得到适用于多个硬件平台的代价模型。

    一种散热系统的控制方法、装置、存储介质及电子设备

    公开(公告)号:CN116225192B

    公开(公告)日:2023-08-01

    申请号:CN202310509059.2

    申请日:2023-05-08

    Abstract: 本说明书公开了一种散热系统的控制方法、装置、存储介质及电子设备,本说明书实施例先根据历史上散热系统对计算集群散热时的各历史记录中确定出用于控制散热的各策略组合,针对每个策略组合,对各历史记录进行处理,确定在该策略组合下特征向量涉及的至少一个特征维度所对应的特征值范围,作为该策略组合的适用条件。根据每个策略组合的适用条件,构建模型,并通过模型输出的目标策略组合控制散热系统。在此方法中,通过对各历史记录进行分析,确定出采用每个策略组合所适用的条件。当需要控制散热系统时,将当前散热系统和计算集群的状态信息与各条件进行匹配,以确定出匹配上的条件所对应的目标策略组合,以控制散热系统。

Patent Agency Ranking