-
公开(公告)号:CN116069512B
公开(公告)日:2023-08-04
申请号:CN202310286991.3
申请日:2023-03-23
Applicant: 之江实验室
Abstract: 本发明提公开了一种基于强化学习的Serverless高效资源分配方法及系统,该方法是通过对尾延迟、决策频率以及资源效率关系的观察,在最小化无服务器系统的资源配置消耗的同时,保障设置的性能延迟目标。该方法充分利用高频率管理带来的资源高效管理优点,通过观察每个请求的状态,利用强化学习模型对处理请求的实例资源配置做出决策。针对函数工作流多阶段运行的特性并对决策模型的轻量化设计,使得高频率控制层隐藏了时间开销并降低了资源开销。本发明与最新的工作流任务调度系统作比较,提升了CPU利用率,并提供了99%的请求时延SLO(Service Level Objective,服务水平目标)保证,降低了端到端延迟方差。
-
公开(公告)号:CN116306855A
公开(公告)日:2023-06-23
申请号:CN202310555078.9
申请日:2023-05-17
Applicant: 之江实验室
Abstract: 本说明书公开了一种基于存算一体系统的数据处理方法及装置,根据目标模型确定目标单元的目标数量以及各目标单元对应的控制向量,从存算一体系统的各数据处理单元中选择目标数量的目标单元,进而根据各目标单元对应的控制向量,从各类型的候选操作中,分明别确定各目标单元对应的目标操作,以便将各目标单元的输入分别输入到各目标单元中,对各目标单元的输入采用目标操作执行数据处理,得到目标模型的输出数据。可见,基于目标单元对应的控制向量确定目标单元执行的目标操作的方式,仅通过改变控制向量就能够兼容不同架构的模型,无需进行电路结构的重新设计,扩展了基于存算一体电路的模型推理的场景,并提高了效率。
-
公开(公告)号:CN116225192A
公开(公告)日:2023-06-06
申请号:CN202310509059.2
申请日:2023-05-08
Applicant: 之江实验室
Abstract: 本说明书公开了一种散热系统的控制方法、装置、存储介质及电子设备,本说明书实施例先根据历史上散热系统对计算集群散热时的各历史记录中确定出用于控制散热的各策略组合,针对每个策略组合,对各历史记录进行处理,确定在该策略组合下特征向量涉及的至少一个特征维度所对应的特征值范围,作为该策略组合的适用条件。根据每个策略组合的适用条件,构建模型,并通过模型输出的目标策略组合控制散热系统。在此方法中,通过对各历史记录进行分析,确定出采用每个策略组合所适用的条件。当需要控制散热系统时,将当前散热系统和计算集群的状态信息与各条件进行匹配,以确定出匹配上的条件所对应的目标策略组合,以控制散热系统。
-
公开(公告)号:CN115964181B
公开(公告)日:2023-06-06
申请号:CN202310247250.4
申请日:2023-03-10
Applicant: 之江实验室
Abstract: 本说明书公开了一种数据处理的方法、装置、存储介质及电子设备。该数据处理的方法包括:获取各待处理数据,判断数据处理模型在当前处理进程下是否能够处理不少于设定数量的待处理数据,若否,调取所述数据处理模型在不同配置组合下的数据处理时间,针对每种配置组合下的数据处理时间,确定所述数据处理模型在该数据处理时间内能够处理的数据量,作为目标数据量,以所述数据处理模型能够处理不少于设定数量的待处理数据为目标,根据所述目标数据量,从各配置组合中选取出目标配置组合,并创建所述目标配置组合下的处理进程对所述待处理数据进行数据处理。
-
公开(公告)号:CN116188878A
公开(公告)日:2023-05-30
申请号:CN202310450659.6
申请日:2023-04-25
Applicant: 之江实验室
IPC: G06V10/764 , G06V10/82 , G06V10/774 , G06V10/776 , G06N3/0464 , G06N3/082
Abstract: 本申请涉及一种基于神经网络结构微调的图像分类方法、装置和存储介质,用于对特征图进行处理,所述特征图由图像数据集输入神经网络所获得,所述方法包括:基于图像数据集的训练集和验证集,获取待剪枝神经网络各特征图的最小绝对偏差,从而确定各特征图的剪枝阈值对特征图进行剪枝,得到剪枝结构;量化剪枝结构,获取量化后剪枝结构的图像分类精度的损失值;基于损失值和剪枝结构的最大迭代周期,对剪枝结构进行微调,得到图像分类特征模型;最后将待测图像输入图像分类特征模型得到分类结果,实现图像分类神经网络模型剪枝范围的自适应调整和对剪枝模型的结构微调量化,提高利用显著压缩的图像分类特征模型进行图像分类处理的分类精度和速度。
-
公开(公告)号:CN116185307A
公开(公告)日:2023-05-30
申请号:CN202310448220.X
申请日:2023-04-24
Applicant: 之江实验室
Abstract: 本说明书公开了一种模型数据的存储方法、装置、存储介质及电子设备。所述模型数据的存储方法包括:接收模型数据的存储请求并获取模型数据,确定所述模型数据的属性信息,根据所述属性信息,确定所述模型数据对应的存储位置,若所述存储位置位于所述AI加速器的本地存储单元,则确定与所述属性信息相匹配的压缩方式,作为目标压缩方式,通过所述目标压缩方式对所述模型数据进行压缩,并将压缩后的模型数据存储在所述本地存储单元中的所述存储位置,以及若所述存储位置位于所述AI加速器的远端存储单元,则将所述模型数据存储在所述远端存储单元中的所述存储位置。
-
公开(公告)号:CN116155750A
公开(公告)日:2023-05-23
申请号:CN202310417880.1
申请日:2023-04-19
Applicant: 之江实验室
IPC: H04L41/14
Abstract: 本申请涉及一种深度学习作业资源放置方法、系统、设备和存储介质,其中,该方法包括:获取待放置的训练作业以及相应的优先级;基于优先级的顺序,依次根据训练作业的需求资源量,选择作业放置的网络结构;网络结构包括服务器、顶端交换机、容器组集合Podset以及主干层交换机;基于选择的网络结构,将训练过程中网络数据传输量作为优化目标进行最小化优化,得到相应的作业放置方案。通过本申请,能够以训练过程中网络数据传输量作为优化目标,针对训练作业选择放置的不同网络结构,得到相应的作业放置方案,有效减少网络中数据传输来提高集群中资源利用率,解决了统一的训练作业资源放置导致资源利用率低下的问题。
-
公开(公告)号:CN115964181A
公开(公告)日:2023-04-14
申请号:CN202310247250.4
申请日:2023-03-10
Applicant: 之江实验室
Abstract: 本说明书公开了一种数据处理的方法、装置、存储介质及电子设备。该数据处理的方法包括:获取各待处理数据,判断数据处理模型在当前处理进程下是否能够处理不少于设定数量的待处理数据,若否,调取所述数据处理模型在不同配置组合下的数据处理时间,针对每种配置组合下的数据处理时间,确定所述数据处理模型在该数据处理时间内能够处理的数据量,作为目标数据量,以所述数据处理模型能够处理不少于设定数量的待处理数据为目标,根据所述目标数据量,从各配置组合中选取出目标配置组合,并创建所述目标配置组合下的处理进程对所述待处理数据进行数据处理。
-
公开(公告)号:CN115237580B
公开(公告)日:2022-12-16
申请号:CN202211147981.3
申请日:2022-09-21
Applicant: 之江实验室
Abstract: 本发明提供一种面向智能计算的流水并行训练自适应调整系统、方法,系统包括监控模块和调整模块,调整模块在计算节点的计算任务划分不均衡时,根据计算节点的不均衡类型,确定调整策略,并根据调整策略,调整子模型在计算集群中的分配;调整包括以下至少一种:将计算任务划分不均衡的计算节点的至少部分子模型的层由该计算节点迁移至其他计算节点;控制计算任务划分不均衡的计算节点执行CPU‑GPU内存交换或重计算,或者控制计算任务划分不均衡的计算节点取消当前执行的CPU‑GPU内存交换或重计算;对计算集群的网络拓扑结构进行调整。本发明能动态调整子模型在计算集群中的分配。
-
公开(公告)号:CN115248728A
公开(公告)日:2022-10-28
申请号:CN202211148202.1
申请日:2022-09-21
Applicant: 之江实验室
Abstract: 本发明提供一种面向智能计算的分布式训练任务调度方法、系统和装置,系统包括模型性能预测和分解模块、全局GPU资源调度器和各计算节点均配置的本地GPU资源调度器,全局GPU资源调度器在接收到模型性能预测和分解模块发送的子任务请求后,根据各子任务的资源消耗信息及多个计算节点的GPU运行情况,将各子任务分配到匹配的计算节点的GPU进行训练,并构建各子任务之间的通信拓扑,并在各计算节点的GPU训练对应子任务的过程中,监控各计算节点的GPU的计算资源运行情况,及根据所有计算节点的GPU的计算资源运行情况,控制子任务的调度。本发明能够提高计算集群的GPU和网络等资源的利用率,减少子任务训练的等待时间。
-
-
-
-
-
-
-
-
-