-
公开(公告)号:CN115242660B
公开(公告)日:2022-12-13
申请号:CN202211149183.4
申请日:2022-09-21
Applicant: 之江实验室
Abstract: 本发明公开了基于中心化的异构算力联邦系统及组网和执行方法,其中所述异构算力联邦系统架构总体上分为2层:视图层和资源层。在视图层包含2个模块:异构算力联邦服务模块和异构算力联邦控制模块;在资源层中包含2个模块:异构算力集群管理模块和异构算力联邦探针模块。根据上述架构,异构算力集群进行组网:首先在在异构算力集群管理模块部署异构算力联邦探针模块;然后在异构算力联邦控制模块创建异构算力集群描述模型;之后异构算力联邦探针模块收集异构算力集群信息推送到异构算力联邦控制模块;最后由异构算力联邦控制模块填充异构算力集群资源描述模型,完成异构算力联邦系统的统一算力视图。
-
公开(公告)号:CN115237608A
公开(公告)日:2022-10-25
申请号:CN202211149154.8
申请日:2022-09-21
Applicant: 之江实验室
Abstract: 本发明公开了一种基于多集群统一算力的多模式调度系统和方法,系统包括多集群资源管理模块、多集群调度策略模块、资源监控报警模块;本发明首先根据作业申请的资源情况,并结合当前所有集群可分配的资源对集群进行过滤,过滤出符合条件的集群;然后再根据作业期望的调度策略从符合条件的集群中选择出最优的集群;之后会对选择的集群资源进行占用,同时也会刷新多集群资源视图;最后,在作业执行完成后,会释放作业占用的集群资源,也将再次刷新多集群资源视图,本发明基于多集群统一算力的统一管控,通过双向资源收集来确保多集群资源视图的准确性和实时性,为用户作业选择最优的调度集群。
-
公开(公告)号:CN119990234A
公开(公告)日:2025-05-13
申请号:CN202510071779.4
申请日:2025-01-16
Applicant: 之江实验室
IPC: G06N3/082 , G06N3/096 , G06N3/0495 , G06N3/0442 , G06N3/0455 , G06N5/04
Abstract: 本说明书公开了一种模型剪枝、任务执行方法、装置、存储介质及设备。在此方法中,可以获取待处理模型,并针对待处理模型中包含的每层中间层,根据在通过待处理模型执行推理任务的过程中输入到该中间层的输入数据和通过该中间层得到的输出结果,对该中间层进行重要性量化评估,以确定该中间层的互信息量化贡献值,进而可以根据每层中间层的互信息量化贡献值,从各中间层中选取出冗余中间层,并根据选取结果,对待处理模型进行剪枝处理,得到处理后的模型,以在降低处理后的模型的参数量的同时避免对处理后的模型进行大规模的重训练,从而可以降低对大规模深度学习模型进行调整所需的成本。
-
公开(公告)号:CN119203043B
公开(公告)日:2025-03-11
申请号:CN202411719444.0
申请日:2024-11-28
Applicant: 之江实验室
IPC: G06F18/25 , G06F18/24 , G06F18/214 , G06N5/04
Abstract: 本申请涉及一种模型训练方法、装置和计算机设备。所述方法包括:获取与目标任务相关的多模态训练样本;多模态训练样本,包括文本、语音和图像中的至少两种样本;目标任务,为视觉处理、语音处理或语言处理中的一种;基于获取到的多模态训练样本,与待训练大模型,构建与目标任务相关的攻防博弈模型;基于攻防博弈模型,剔除多模态训练样本中影响待训练大模型的模型训练收敛速度的目标样本,得到精简后的样本;利用精简后的样本,对待训练大模型进行训练,得到训练后的大模型。采用本方法能够解决了现有的大模型的训练方法,因为存在影响大模型训练效率的样本,导致在进行大模型训练的过程中,存在占用计算资源过多的问题。
-
公开(公告)号:CN119474390A
公开(公告)日:2025-02-18
申请号:CN202510060342.0
申请日:2025-01-15
Applicant: 之江实验室
IPC: G06F16/353 , G06F40/216 , G06F40/284 , G06F40/30 , G06F18/2415 , G06N5/04
Abstract: 本申请涉及一种基于对齐策略的大模型文本分类方法和系统,该方法包括:基于待分类文本构建语言提示;基于预训练语言模型和语言提示,得到输出向量;根据输出向量,确定预训练语言模型所有候选词的概率分布矩阵;概率分布矩阵包括预测分类标签;基于预先构建的文本语义图和对齐增强后的概率分布矩阵进行标签传播,得到待分类文本的文本分类结果。通过本申请,基于待分类文本构建语言提示,将文本分类任务转换为自然语言提示中面向任务的文本补全问题,并且利用文本语义图进行标签传播,对预训练语言模型的预测文本分类结果进行对齐增强,能够在样本稀缺时提高模型分类的准确性。
-
公开(公告)号:CN119203043A
公开(公告)日:2024-12-27
申请号:CN202411719444.0
申请日:2024-11-28
Applicant: 之江实验室
IPC: G06F18/25 , G06F18/24 , G06F18/214 , G06N5/04
Abstract: 本申请涉及一种模型训练方法、装置和计算机设备。所述方法包括:获取与目标任务相关的多模态训练样本;多模态训练样本,包括文本、语音和图像中的至少两种样本;目标任务,为视觉处理、语音处理或语言处理中的一种;基于获取到的多模态训练样本,与待训练大模型,构建与目标任务相关的攻防博弈模型;基于攻防博弈模型,剔除多模态训练样本中影响待训练大模型的模型训练收敛速度的目标样本,得到精简后的样本;利用精简后的样本,对待训练大模型进行训练,得到训练后的大模型。采用本方法能够解决了现有的大模型的训练方法,因为存在影响大模型训练效率的样本,导致在进行大模型训练的过程中,存在占用计算资源过多的问题。
-
公开(公告)号:CN117519613B
公开(公告)日:2024-06-18
申请号:CN202410025706.7
申请日:2024-01-08
Applicant: 之江实验室
IPC: G06F3/06
Abstract: 本申请提供了一种跨k8s集群的存储卷共享方法和系统,包括存储各k8s集群支持的存储集群情况和支持的存储卷类型、存储容量限制,控制存储卷中央调度器生成存储卷id,接收存储卷中央调度器下发的调度指令,结合底层存储位置转换成具体的操作指令调用存储适配器提供的标准接口;存储适配器接收存储操作器下发的操作指令,将操作指令换成被各存储集群厂商识别的存储资源操作指令;存储卷中央调度器记录存储卷id及各集群返回的物理存储卷id映射关系,获取存储卷id相关联的k8s集群信息,使用存储卷id与k8s集群进行跨集群共享。通过中央调度器、存储卷操作器、存储适配器等组件和技术,实现多k8集群的存储卷管理。
-
公开(公告)号:CN117573295B
公开(公告)日:2024-05-28
申请号:CN202410059955.8
申请日:2024-01-16
Applicant: 之江实验室
Abstract: 本申请提供了基于k8s的多集群组件管理方法、装置及计算机设备,包括获取子集群元数据,在主集群中对所述子集群元数据进行渲染;在所述主集群中定义组件元数据的数据结构,将重定义后的所述组件元数据在所述主集群中进行渲染;基于所述组件元数据获取组件子集群的部署信息,根据所述部署信息将所述组件子集群信息渲染至对应的子集群;监听所述子集群的组件部署状态,将状态信息同步至主集群组件元数据;通过将多个集群分为主从结构,在主集群维护了多个子集群中不同组件元数据,通过管理主集群中组件元数据,实现统一管理多个子集群中不同组件的运行生命周期。实现了简单,可靠的多集群组件管理功能,降低了多集群维护成本。
-
公开(公告)号:CN117611425A
公开(公告)日:2024-02-27
申请号:CN202410067171.X
申请日:2024-01-17
Applicant: 之江实验室
Abstract: 本申请涉及一种图形处理器算力配置方法、装置、计算机设备和存储介质,通过在第一算力超出图形处理器的算力配额的情况下,根据历史算力数据,计算待处理任务的延迟执行概率,根据待处理任务的延迟执行概率决策是否延迟执行待处理任务,其中,第一算力包括图形处理器的当前实际算力使用量以及待处理任务执行所需的理论算力使用量,历史算力数据包括多个采样时间中图形处理器进程的算力使用量,由于在可能超配的情况下并未直接延迟执行待处理任务,而是根据历史算力数据决策是否延迟执行待处理任务,保证了图形处理器的算力使用量能够稳定在算力配额附近,解决了图形处理器的算力资源利用率较低的问题,提高了图形处理器算力分配的准确度与稳定性。
-
公开(公告)号:CN117519613A
公开(公告)日:2024-02-06
申请号:CN202410025706.7
申请日:2024-01-08
Applicant: 之江实验室
IPC: G06F3/06
Abstract: 本申请提供了一种跨k8s集群的存储卷共享方法和系统,包括存储各k8s集群支持的存储集群情况和支持的存储卷类型、存储容量限制,控制存储卷中央调度器生成存储卷id,接收存储卷中央调度器下发的调度指令,结合底层存储位置转换成具体的操作指令调用存储适配器提供的标准接口;存储适配器接收存储操作器下发的操作指令,将操作指令换成被各存储集群厂商识别的存储资源操作指令;存储卷中央调度器记录存储卷id及各集群返回的物理存储卷id映射关系,获取存储卷id相关联的k8s集群信息,使用存储卷id与k8s集群进行跨集群共享。通过中央调度器、存储卷操作器、存储适配器等组件和技术,实现多k8集群的存储卷管理。
-
-
-
-
-
-
-
-
-