一种用于空间探索的代理模型的在线数据选择方法

    公开(公告)号:CN117909746A

    公开(公告)日:2024-04-19

    申请号:CN202410322521.2

    申请日:2024-03-20

    Abstract: 本说明书公开了一种用于空间探索的代理模型的在线数据选择方法,可以获取训练样本集,首先确定出训练样本集中样本的实际排序结果,在每一轮迭代训练前,通过上一轮得到的代理模型对训练样本集中的各样本进行排序,得到一个排序结果,通过实际排序结果确定出子数据集A和子数据集C,以及通过另一种排序结果,确定出子数据集B。根据子数据集A、B、C,对代理模型进行每一轮训练,训练完成后的代理模型可以对给出的若干待排序数据进行排序,本方法重点考虑排序高的空间点的数据拟合能力,并提供了一种高排序点和全空间点之间权衡的可控调节机制,从而提高了空间探索准确性,且由于提高了对高排序点的预测准确性,提高了探索的空间采样效率。

    一种生成存内计算神经网络模型的方法、装置及介质

    公开(公告)号:CN117077726B

    公开(公告)日:2024-01-09

    申请号:CN202311344094.X

    申请日:2023-10-17

    Abstract: 本申请公开了一种生成存内计算神经网络模型的方法,首先根据待构建的神经网络模型的目标任务,根据历史执行所述目标任务的任务数据作为训练样本,以及将目标任务的执行结果作为标注,之后通过对量化可微超网络的模型结构进行初始化,确定模型各节点之间数据传递顺序的有向无环图,确定架构参数以及权重参数,依该有向无环图的顺序,通过训练样本对权重参数进行调整,然后通过调整后的权重参数配置的模型,调整架构参数,得到存内运行的神经网络模型。通过权值继承,实现了可交替优化的两种参数,分别通过有监督训练和启发式学习进行调整,使得可以更为高效的学习深度神经网络架构。

    一种模型训练方法、装置、存储介质及电子设备

    公开(公告)号:CN117195997A

    公开(公告)日:2023-12-08

    申请号:CN202311464150.3

    申请日:2023-11-06

    Abstract: 本说明书公开了一种模型训练方法、装置、存储介质及电子设备,在此方法中,待训练模型部署在本地节点的计算区中,并在本地节点中部署高速缓存区以及在计算区中部署数据生成模型。在实际模型训练过程中,将训练所需要的目标数据缓存在高速缓存区中,以便计算区从高速缓存区直接进行数据读取,来进行模型训练,若没有读取到数据,则通过数据生成模型根据索引值生成的目标数据,进一步进行模型训练,并在模型训练过程中,保证模型准确度的情况下,对模型进行模型压缩,来减少模型参量。通过减少对存储区的数据访问次数以及对模型进行模型压缩,从而在一定程度上提高模型训练效率和减少存储资源浪费。

    一种模型训练的方法、装置、存储介质及电子设备

    公开(公告)号:CN116756293A

    公开(公告)日:2023-09-15

    申请号:CN202311010104.6

    申请日:2023-08-11

    Abstract: 本说明书公开了一种模型训练的方法、装置、存储介质及电子设备,预先将文本对话生成模型的一次迭代训练过程划分为若干训练阶段,针对该文本对话生成模型的每个训练阶段,获取用于完成该训练阶段的各文本特征,作为当前文本特征,根据各当前文本特征及预设的该训练阶段的精度需求,对各当前文本特征进行聚类,得到聚类后的文本特征,对该聚类后的文本特征进行稀疏处理,得到稀疏后的文本特征,根据该稀疏后的文本特征,执行该训练阶段的训练。本方法通过将模型一次迭代过程分为多个阶段,并根据各阶段的精度需求,对文本特征进行聚类,再稀疏聚类后的文本特征,以根据稀疏聚类后的文本特征对文本对话生成模型进行训练。

    基于参数计算和通信调度的分布式训练加速方法和系统

    公开(公告)号:CN116258197B

    公开(公告)日:2023-09-08

    申请号:CN202310545694.6

    申请日:2023-05-16

    Abstract: 基于参数计算和通信调度的分布式训练加速方法,包括:根据反向传播算法各层梯度之间不存在依赖关系的特点,通过调整梯度计算顺序,优先计算模型靠前层的梯度,从而提早梯度的传输时间,使得下轮该层的前向传播过程能够更早开始;对于梯度传输过程,通过动态枚举梯度拆分或融合阈值,并结合实时运行情况来选择性能最优的方案。还包括一种基于参数计算和通信调度的分布式训练加速系统。本发明增加了计算和通信之间的覆盖度,提升了训练性能,且实现上简单灵活,能够快速适配不同的模型及训练环境。

    一种数据处理的方法、装置、存储介质以及电子设备

    公开(公告)号:CN116415103B

    公开(公告)日:2023-09-05

    申请号:CN202310681557.5

    申请日:2023-06-09

    Abstract: 本说明书公开了一种数据处理的方法、装置、存储介质以及电子设备,可以读取存储在指定设备内存的目标数据,并确定目标数据的各数据维度,可以根据目标数据的各数据维度,确定各种候选数据拆分方式,以及确定按照每种候选数据拆分方式执行目标数据的数据处理任务后的效率值,并根据每种候选数据拆分方式对应的效率值,确定目标数据拆分方式,其中,针对每种候选数据拆分方式,该候选数据拆分方式用于确定指定设备中至少部分的数据处理单元所要处理的数据的数据维度,数据处理单元可以包括:指定设备中的寄存器以及各级缓存。以按照目标数据拆分方式,对神经网络模型中的待处理数据进行数据处理,从而能够提高神经网络模型中矩阵运算的效率。

    一种散热系统的控制方法、装置、存储介质及电子设备

    公开(公告)号:CN116225192B

    公开(公告)日:2023-08-01

    申请号:CN202310509059.2

    申请日:2023-05-08

    Abstract: 本说明书公开了一种散热系统的控制方法、装置、存储介质及电子设备,本说明书实施例先根据历史上散热系统对计算集群散热时的各历史记录中确定出用于控制散热的各策略组合,针对每个策略组合,对各历史记录进行处理,确定在该策略组合下特征向量涉及的至少一个特征维度所对应的特征值范围,作为该策略组合的适用条件。根据每个策略组合的适用条件,构建模型,并通过模型输出的目标策略组合控制散热系统。在此方法中,通过对各历史记录进行分析,确定出采用每个策略组合所适用的条件。当需要控制散热系统时,将当前散热系统和计算集群的状态信息与各条件进行匹配,以确定出匹配上的条件所对应的目标策略组合,以控制散热系统。

    一种基于深度强化学习的2.5D总体布线方法和系统

    公开(公告)号:CN116384321A

    公开(公告)日:2023-07-04

    申请号:CN202310384336.1

    申请日:2023-04-11

    Abstract: 一种基于深度强化学习的2.5D总体布线方法,包含:步骤1:压缩,将3D总体布线问题压缩为2D总体布线问题;步骤2:数据预处理,包括将多引脚线网按半周长模型升序排序,然后基于直角Steiner最小树算法做拆解,线网拆解的子网再排序。步骤3:基于深度强化学习针对步骤2获得的两引脚对数据点对点布线,获得2D的总体布线方案,若布线方案有溢出,输出拥塞信息;否则执行步骤4。步骤4:通过直角结构层分配技术基于2D的总体布线方案获得3D的总体布线方案。本发明还包括一种基于深度强化学习的2.5D总体布线系统。本发明将多层总体布线问题压缩后基于深度强化学习进行求解,再利用层分配技术获得3D总体布线方案,有效降低算力成本并提高总体布线性能。

    一种基于虚拟机的代码编译方法、装置及执行方法、装置

    公开(公告)号:CN116360790A

    公开(公告)日:2023-06-30

    申请号:CN202310274453.2

    申请日:2023-03-15

    Abstract: 本申请涉及一种基于虚拟机的代码编译方法、装置及执行方法、装置,其中,该基于虚拟机的代码编译方法包括:通过获取字节码中的代码块,判断代码块是否属于热点函数,若是,通过启发式编译对代码块进行编译获得第一代码;通过机器学习对代码块进行编译获得第二代码;对第一代码和第二代码进行性能评估,获得第三代码;将第三代码编译为本地代码;并将本地代码存储在预设寄存器中。通过本申请,解决了相关技术中存在传统的JIT编译方案通过解释执行的方式运行速度慢的问题,减少常用编译的代码块的反复执行的次数,省去了大量的调用和重新解释的过程,并且存放在寄存器中更可以提高执行速度,节省时间。

Patent Agency Ranking