-
公开(公告)号:CN116150627A
公开(公告)日:2023-05-23
申请号:CN202310440832.4
申请日:2023-04-23
Applicant: 之江实验室
IPC: G06F18/214 , G06F18/241
Abstract: 本说明书公开了一种异步联邦学习方法、装置、存储介质及电子设备,本说明书实施例在每轮模型训练中,实时接收客户端上传的针对客户端本地部署的模型进行训练所得到的模型参数,并实时监测服务器是否已接收到在该轮模型训练下的分类规则下所确定出的各类别的模型参数。若是,对已接收到的各类别的模型参数进行聚合,得到该轮模型训练下的聚合参数,基于聚合参数,对部署于服务器的全局模型进行参数更新。针对异步联邦学习框架下的某轮模型训练,服务器只需要接收到这轮模型训练所需的各类别的模型参数,就可以对全局模型进行参数更新,不需要等待接收到所有客户端上传的模型参数之后,才对全局模型进行参数更新,从而提高了全局模型的训练效率。
-
公开(公告)号:CN116701001B
公开(公告)日:2023-10-20
申请号:CN202310989113.8
申请日:2023-08-08
Applicant: 国网浙江省电力有限公司信息通信分公司 , 之江实验室 , 国网信息通信产业集团有限公司 , 国网浙江省电力有限公司磐安县供电公司
IPC: G06F9/50
Abstract: 本发明公开目标任务分配方法、装置、电子设备及存储介质,该方法包括:将目标任务拆分为多个算子;根据模型并行机制和数据并行机制对算子进行二次拆分;确定目标算子在边缘设备上的资源变化速率,得到算力更新速率表;确定每个边缘设备的剩余空闲资源量;根据算力更新速率表、每个边缘设备的设备类型、每个边缘设备的剩余空闲资源量、以及每个目标算子的计算资源需求量,确定多个目标算子和多个边缘设备的映射关系;根据映射关系将目标算子分配到多个边缘设备上。本方法在深度学习模型训练中,将目标任务分为多个目标算子,并将目标算子分配到对应的边缘设备上,通过不同的边缘设备对目标任务协同计算,有效地提高训练过程中的计算效率。
-
公开(公告)号:CN116701001A
公开(公告)日:2023-09-05
申请号:CN202310989113.8
申请日:2023-08-08
Applicant: 国网浙江省电力有限公司信息通信分公司 , 之江实验室 , 国网信息通信产业集团有限公司 , 国网浙江省电力有限公司磐安县供电公司
IPC: G06F9/50
Abstract: 本发明公开目标任务分配方法、装置、电子设备及存储介质,该方法包括:将目标任务拆分为多个算子;根据模型并行机制和数据并行机制对算子进行二次拆分;确定目标算子在边缘设备上的资源变化速率,得到算力更新速率表;确定每个边缘设备的剩余空闲资源量;根据算力更新速率表、每个边缘设备的设备类型、每个边缘设备的剩余空闲资源量、以及每个目标算子的计算资源需求量,确定多个目标算子和多个边缘设备的映射关系;根据映射关系将目标算子分配到多个边缘设备上。本方法在深度学习模型训练中,将目标任务分为多个目标算子,并将目标算子分配到对应的边缘设备上,通过不同的边缘设备对目标任务协同计算,有效地提高训练过程中的计算效率。
-
-