一种算子优化调度模型的训练方法、装置、介质及设备

    公开(公告)号:CN116755862B

    公开(公告)日:2023-12-19

    申请号:CN202311010092.7

    申请日:2023-08-11

    Abstract: 本说明书公开了一种算子优化调度模型的训练方法、装置、介质及设备,包括:确定当前时刻作为训练样本的预先基于图像数据训练的图像分类模型中的各算子的信息,并输入待训练的算子优化调度模型,确定当前时刻待优化算子。确定对待优化算子进行优化后的待优化算子对图像数据进行图像分类时的运行下降时间。再根据信息、待优化算子以及待优化算子对图像数据进行图像分类时的运行下降时间,对待训练的算子优化调度模型进行训练,使得可以通过训练完成的算子优化调度模型确定当前时刻所需调度进行优化的算子,减少人工设计选择所需优化的算子的策略的麻烦,加快后续将待部署的图像分类模型部署到硬件上的速度。

    一种计算设备散热的方法、装置、存储介质及电子设备

    公开(公告)号:CN116661574B

    公开(公告)日:2023-12-12

    申请号:CN202310860078.X

    申请日:2023-07-13

    Abstract: 本说明书公开了一种计算设备散热的方法、装置、存储介质及电子设备,本方法通过确定各时刻的计算设备的芯片的特征以及计算设备的散热单元中冷却介质的特征确定训练样本,并获取散热单元的控制指令作为训练样本的标注,然后针对每个特征维度,根据该维度的特征对训练样本进行排序以确定该维度的样本序列,再确定标注相同且连续的各训练样本组成的待选样本组,并确定包含训练样本数量不小于预设数量的待选样本组作为目标样本组,根据各目标样本组以及各目标样本组对应的标注确定控制规则,进一步对计算设备进行散热控制。本方法通过对历史上控制指令、芯片特征以及散热单元中冷却介质的特征的学习生成控制规则,使计算设备可以

    张量卸载方法、装置、计算机设备及存储介质

    公开(公告)号:CN117130693A

    公开(公告)日:2023-11-28

    申请号:CN202311397785.6

    申请日:2023-10-26

    Abstract: 本申请涉及一种张量卸载方法、装置、计算机设备及存储介质。所述方法包括:获取张量特征信息,所述张量特征信息包括待训练模型每层的显存容量需求、计算间隔以及计算延迟信息;基于预设卸载策略和所述显存容量需求确定显存约束条件,基于所述预设卸载策略和计算间隔确定卸载时间约束条件,所述预设卸载策略包括主存卸载和重计算卸载;基于所述显存约束条件和卸载时间约束条件筛选所述预设卸载策略,确定多个候选卸载策略;基于所述计算延迟信息确定每个候选卸载策略的额外计算延迟,基于所述额外计算延迟确定目标卸载策略,并基于所述目标卸载策略卸载张量。本申请在对模型训练精度影响较小或无影响的情况下,通过张量卸载来增加显存的有效容量。

    一种基于搜索的深度学习模型部署方法及装置

    公开(公告)号:CN116306856A

    公开(公告)日:2023-06-23

    申请号:CN202310557259.5

    申请日:2023-05-17

    Abstract: 本说明书公开了一种基于搜索的深度学习模型部署方法及装置,可以获取深度学习模型所对应的计算图,确定计算图中包括的算子,并确定每个算子匹配的硬件资源,而后,根据各算子匹配的硬件资源,构建搜索空间,从搜索空间中选取出目标样本,并确定目标样本对应的运行时长,以及确定目标样本对应的邻域样本,并确定邻域样本对应的运行时长,若邻域样本对应的运行时长短于目标样本的运行时长,将邻域样本作为重新确定出的目标样本,并继续确定目标样本对应的邻域样本以及对应的运行时长,直到满足预设迭代终止条件为止,按照目标样本所对应的分配方案,对深度学习模型的算子进行硬件资源的分配,以进行部署,本方法可以提高深度学习模型的计算效率。

    一种模型部署方法、装置、存储介质及电子设备

    公开(公告)号:CN119883295A

    公开(公告)日:2025-04-25

    申请号:CN202510386144.3

    申请日:2025-03-31

    Abstract: 本说明书公开了一种模型部署方法、装置、存储介质及电子设备。所述方法包括:获取针对业务模型的初始部署策略组,初始部署策略组包括两种部署策略;将初始部署策略组中各部署策略的特征编码输入预先训练的代理模型,确定各部署策略在处理设备上的性能分布信息;利用预设的标签分布调整输入其中的至少一项输入,在输出的性能分布信息与标签分布之间的差异满足设定要求的情况下,得到调整后的部署策略组;在调整后的部署策略组中确定目标部署策略,并基于目标部署策略对业务模型进行部署。本方案降低了对模型部署策略进行探索的时间损耗,提高了模型部署效率。

    一种基于数据质量的混合精度模型训练方法及装置

    公开(公告)号:CN117952182A

    公开(公告)日:2024-04-30

    申请号:CN202410345301.1

    申请日:2024-03-25

    Abstract: 本说明书公开了一种基于数据质量的混合精度模型训练方法及装置。所述任务执行方法包括:服务器首先接收训练指令,并执行训练指令,以获取目标模型,将预设的样本数据输入到预设的精度调整模型中,得到针对目标模型中包含的每个网络层对应关联数据的调整后精度。并根据调整后精度,对目标模型进行精度调整,得到调整后目标模型,并将样本数据输入调整后目标模型中,得到针对样本数据的预测结果,以最小化预测结果与样本数据对应的实际结果之间的偏差,以及最小化调整后目标模型处理样本数据所消耗的时间为优化目标,对目标模型以及精度调整模型进行训练。

    一种工业领域的数据存储方法、装置及设备

    公开(公告)号:CN117666971A

    公开(公告)日:2024-03-08

    申请号:CN202410136688.X

    申请日:2024-01-31

    Abstract: 在本说明书提供的一种工业领域的数据存储方法、装置及设备中,通过响应于训练目标模型的原始数据的存储请求,确定目标模型的模型类型、训练完成的回归模型以及若干待选存储地址。针对每个待选存储地址,将原始数据、第一公式以及该待选存储地址输入回归模型,得到该待选存储地址的训练效果;根据各待选存储地址的训练效果,从各待选存储地址中,确定目标存储地址,并将原始数据存储至目标存储地址。通过计算存储请求中原始数据的不同待存储地址的训练效果,确定原始数据的目标存储地址,并将原始存储至目标存储地址,达到了根据数据训练的效果的对数据进行存储的目标。

    一种用于图像分类卷积神经网络的网络压缩方法及装置

    公开(公告)号:CN117649568A

    公开(公告)日:2024-03-05

    申请号:CN202410128337.4

    申请日:2024-01-30

    Abstract: 在本说明书提供的一种用于图像分类卷积神经网络的网络压缩方法及装置中,通过获取训练完成的图像分类卷积神经网络以及输入图像,将输入图像输入该图像分类卷积神经网络中,确定各节点的参数以及各节点输出的该输入图像的激活特征,针对每一网络层,根据该网络层的各节点的参数和激活特征,确定核心参数和核心激活特征,并得到参数聚类结果和激活特征聚类结果,进而确定综合聚类结果,根据该综合聚类结果对该网络层进行剪枝。通过结合参数聚类结果和激活特征聚类结果,确定综合聚类结果,综合考虑了图像分类卷积神经网络的参数相似性和激活模式,考虑更全面,有效地减少了图像分类卷积神经网络的复杂性。

    张量卸载方法、装置、计算机设备及存储介质

    公开(公告)号:CN117130693B

    公开(公告)日:2024-02-13

    申请号:CN202311397785.6

    申请日:2023-10-26

    Abstract: 本申请涉及一种张量卸载方法、装置、计算机设备及存储介质。所述方法包括:获取张量特征信息,所述张量特征信息包括待训练模型每层的显存容量需求、计算间隔以及计算延迟信息;基于预设卸载策略和所述显存容量需求确定显存约束条件,基于所述预设卸载策略和计算间隔确定卸载时间约束条件,所述预设卸载策略包括主存卸载和重计算卸载;基于所述显存约束条件和卸载时间约束条件筛选所述预设卸载策略,确定多个候选卸载策略;基于所述计算延迟信息确定每个候选卸载策略的额外计算延迟,基于所述额外计算延迟确定目标卸载策略,并基于所述目(56)对比文件卢海峰;顾春华;罗飞;丁炜超;杨婷;郑帅.基于深度强化学习的移动边缘计算任务卸载研究.计算机研究与发展.2020,(第07期),全文.马玮良;彭轩;熊倩;石宣化;金海.深度学习中的内存管理问题研究综述.大数据.2020,(第04期),全文.

    基于人工智能的编译器自动调优方法及装置

    公开(公告)号:CN116931955B

    公开(公告)日:2024-01-09

    申请号:CN202311202659.0

    申请日:2023-09-18

    Abstract: 本说明书公开了基于人工智能的编译器自动调优方法及装置,在此方法中,将程序输入到模型中得到各优化序列,编译器针对每个优化序列对程序进行编译运行得到实际运行时间,据此来调整智能体模型输出各优化序列的概率,使得训练后的智能体模型能够输出最优的优化序列,而编译器使用最优优化序列对待运行程序进行编译优化,从而在一定程度上提高运行效率和减少资源浪费。

Patent Agency Ranking