-
公开(公告)号:CN117666971B
公开(公告)日:2024-04-30
申请号:CN202410136688.X
申请日:2024-01-31
Applicant: 之江实验室
IPC: G06F3/06 , G06F18/214
Abstract: 在本说明书提供的一种工业领域的数据存储方法、装置及设备中,通过响应于训练目标模型的原始数据的存储请求,确定目标模型的模型类型、训练完成的回归模型以及若干待选存储地址。针对每个待选存储地址,将原始数据、第一公式以及该待选存储地址输入回归模型,得到该待选存储地址的训练效果;根据各待选存储地址的训练效果,从各待选存储地址中,确定目标存储地址,并将原始数据存储至目标存储地址。通过计算存储请求中原始数据的不同待存储地址的训练效果,确定原始数据的目标存储地址,并将原始存储至目标存储地址,达到了根据数据训练的效果的对数据进行存储的目标。
-
公开(公告)号:CN117370536B
公开(公告)日:2024-03-12
申请号:CN202311673949.3
申请日:2023-12-07
Applicant: 之江实验室
IPC: G06F16/332 , G06F16/33 , G06N3/0464 , G06N3/08
Abstract: 本说明书公开了一种任务执行方法、装置、存储介质及电子设备。可以将用户输入的指定文本输入到预先训练的语言模型中,以通过语言模型确定指定文本对应的文本特征表示,并可以确定每个候选问题文本特征表示与文本特征表示之间的相关度,以根据相关度,从各候选问题文本特征表示中确定出与文本特征表示相匹配的候选问题文本特征表示,作为目标问题文本特征表示,并根据目标问题文本特征表示与所述文本特征表示之间的相关度是否低于预设的相关度阈值,确定是否向用户请求补充文本信息,以及是否将预先确定的目标问题文本特征表示对应的回复文本,作为指定文本对应的目标回复文本回复给用户。
-
公开(公告)号:CN117171577A
公开(公告)日:2023-12-05
申请号:CN202311450171.X
申请日:2023-11-02
Applicant: 之江实验室
IPC: G06F18/214
Abstract: 本说明书公开了一种高性能算子选择的动态决策方法及装置,包括:在选择模型中特定算子应该由算子库中具体的哪一个算子实现时,需要定位到模型中特定算子的shape特征的特征区间下,并确定该特征区间下的性能排序子表是否被更新过,若是,则可以直接通过该特征区间下更新好的性能排序子表选取出目标算子,若还未更新,则在模型训练阶段可以在每一轮训练时选取不同的算子在模型中进行训练,从而得到算子的性能分数,对性能排序子表进行更新,那么在后续训练这个模型(或者其他模型中需要相同特征区间下的shape特征的算子)时,可以直接使用该性能排序子表选取出合适的算子,从而相比于现有技术能够更加准确的选择出性能良好的算子。
-
公开(公告)号:CN116415103A
公开(公告)日:2023-07-11
申请号:CN202310681557.5
申请日:2023-06-09
Applicant: 之江实验室
IPC: G06F17/16
Abstract: 本说明书公开了一种数据处理的方法、装置、存储介质以及电子设备,可以读取存储在指定设备内存的目标数据,并确定目标数据的各数据维度,可以根据目标数据的各数据维度,确定各种候选数据拆分方式,以及确定按照每种候选数据拆分方式执行目标数据的数据处理任务后的效率值,并根据每种候选数据拆分方式对应的效率值,确定目标数据拆分方式,其中,针对每种候选数据拆分方式,该候选数据拆分方式用于确定指定设备中至少部分的数据处理单元所要处理的数据的数据维度,数据处理单元可以包括:指定设备中的寄存器以及各级缓存。以按照目标数据拆分方式,对神经网络模型中的待处理数据进行数据处理,从而能够提高神经网络模型中矩阵运算的效率。
-
公开(公告)号:CN118378726B
公开(公告)日:2024-09-20
申请号:CN202410830397.0
申请日:2024-06-25
Applicant: 之江实验室
Abstract: 本说明书公开了一种模型训练系统、方法、存储介质及电子设备,可以通过前向梯度传播的方式,即,在前向传播过程中,针对待训练模型的每层网络层的输出值和在待训练模型中位于该网络层的上一网络层的输出值,计算该网络层的梯度值,并基于该网络层的梯度值对该网络层的模型参数进行调整,从而可以使得在通过中央处理器确定每层网络层的模型参数后,即可将上一层网络层的输出值以及该网络层的梯度值删除,进而可以有效减少针对待训练模型进行训练过程中对于存储资源的占用。
-
公开(公告)号:CN118378726A
公开(公告)日:2024-07-23
申请号:CN202410830397.0
申请日:2024-06-25
Applicant: 之江实验室
Abstract: 本说明书公开了一种模型训练系统、方法、存储介质及电子设备,可以通过前向梯度传播的方式,即,在前向传播过程中,针对待训练模型的每层网络层的输出值和在待训练模型中位于该网络层的上一网络层的输出值,计算该网络层的梯度值,并基于该网络层的梯度值对该网络层的模型参数进行调整,从而可以使得在通过中央处理器确定每层网络层的模型参数后,即可将上一层网络层的输出值以及该网络层的梯度值删除,进而可以有效减少针对待训练模型进行训练过程中对于存储资源的占用。
-
公开(公告)号:CN117032936B
公开(公告)日:2024-02-06
申请号:CN202311267177.3
申请日:2023-09-28
Applicant: 之江实验室
IPC: G06F9/48 , G06F9/50 , G06F18/214 , G06N3/006
Abstract: 本申请涉及一种数据调度方法、装置和计算机设备。所述方法包括:对TPU上的数据进行分块,将加载时间和卸载时间均相同的数据划分为同一数据块;基于数据块所对应的加载时间和卸载时间,得到数据调度模型的初始参数;基于每块TPU存储量的大小,得到数据块占用TPU数量的时间分布;根据数据块占用TPU数量的时间分布,计算资源消耗量;利用粒子群优化算法,对初始数据调度模型的参数进行优化训练,直至按照训练后的数据调度模型进行数据调度的资源消耗量,达到按照预设的最少的TPU数量计算得到的资源消耗量时,停止训练,得到完备数据调度模型;基于完备数据调度模型,对TPU上的数据块进行数据调度。采用本方法能够解决计算机的计算
-
公开(公告)号:CN116991429B
公开(公告)日:2024-01-16
申请号:CN202311266395.5
申请日:2023-09-28
Applicant: 之江实验室
IPC: G06F8/41 , G06F18/214
Abstract: 本申请涉及一种计算机程序的编译调优方法、装置和存储介质,其中,该编译调优方法包括:选择样本硬件集合和样本程序集合并为每个样本程序随机生成优化序列,对每种样本程序与优化序列的组合进行编译、特征抽取以及运行,得到训练数据集,基于训练数据集对预设的多任务学习模型进行训练,得到预训练模型,基于预训练模型进行成本函数模型的初始化,得到目标成本函数模型,利用该目标成本函数模型对目标源程序进行调优,得到目标源程序的最优优化序列。通过本申请,解决了相关技术中计算机程序编译调优效率低下的问题,提高了计算机程序的编译调优效率。
-
公开(公告)号:CN117370536A
公开(公告)日:2024-01-09
申请号:CN202311673949.3
申请日:2023-12-07
Applicant: 之江实验室
IPC: G06F16/332 , G06F16/33 , G06N3/0464 , G06N3/08
Abstract: 本说明书公开了一种任务执行方法、装置、存储介质及电子设备。可以将用户输入的指定文本输入到预先训练的语言模型中,以通过语言模型确定指定文本对应的文本特征表示,并可以确定每个候选问题文本特征表示与文本特征表示之间的相关度,以根据相关度,从各候选问题文本特征表示中确定出与文本特征表示相匹配的候选问题文本特征表示,作为目标问题文本特征表示,并根据目标问题文本特征表示与所述文本特征表示之间的相关度是否低于预设的相关度阈值,确定是否向用户请求补充文本信息,以及是否将预先确定的目标问题文本特征表示对应的回复文本,作为指定文本对应的目标回复文本回复给用户。
-
公开(公告)号:CN116861149A
公开(公告)日:2023-10-10
申请号:CN202311136375.6
申请日:2023-09-05
Applicant: 之江实验室
Abstract: 本申请涉及一种卷积运算的优化方法、装置及处理器,处理器包括一级缓存,该方法包括:在内存中将卷积运算的输入张量重排为左矩阵,将卷积核重排为右矩阵;将所述左矩阵划分为多个加载矩阵,所述加载矩阵的尺寸基于所述一级缓存的容量确定;将所述多个加载矩阵依次从所述内存加载至所述一级缓存,与所述右矩阵执行矩阵乘计算;将所述多个加载矩阵对应的计算结果累加,得到所述卷积运算的结果,不需要增加输入张量的存储空间,解决了相关技术中存在的将卷积运算转换为矩阵乘计算过程中产生的冗余数据导致内存占用增加和内存局部性较低的问题。
-
-
-
-
-
-
-
-
-