-
公开(公告)号:CN114943345A
公开(公告)日:2022-08-26
申请号:CN202210658274.4
申请日:2022-06-10
Applicant: 西安电子科技大学
Abstract: 一种基于主动学习和模型压缩的联邦学习全局模型训练方法,其步骤为:服务器利用生成的预训练集,对构建的联邦学习全局模型进行预训练,并下发至由客户端组成的每个簇中,每个簇中客户端基于主动学习利用生成的客户端样本集,按照静态顺序依次训练下发的联邦学习全局模型,训练完成后对模型参数进行模型压缩,将压缩后的模型参数上传至服务器,服务器对上传的模型参数进行加权聚合后下发至每个簇中,当联邦学习全局模型性能达到预期目标或模型损失函数收敛时结束训练。本发明的方法在未标记且独立同分布的数据环境上提升模型精确度的同时,降低了传输过程中的通信开销。
-
公开(公告)号:CN114943345B
公开(公告)日:2024-06-11
申请号:CN202210658274.4
申请日:2022-06-10
Applicant: 西安电子科技大学
IPC: G06N20/20 , G06N3/0464 , G06N3/098
Abstract: 一种基于主动学习和模型压缩的联邦学习全局模型训练方法,其步骤为:服务器利用生成的预训练集,对构建的联邦学习全局模型进行预训练,并下发至由客户端组成的每个簇中,每个簇中客户端基于主动学习利用生成的客户端样本集,按照静态顺序依次训练下发的联邦学习全局模型,训练完成后对模型参数进行模型压缩,将压缩后的模型参数上传至服务器,服务器对上传的模型参数进行加权聚合后下发至每个簇中,当联邦学习全局模型性能达到预期目标或模型损失函数收敛时结束训练。本发明的方法在未标记且独立同分布的数据环境上提升模型精确度的同时,降低了传输过程中的通信开销。
-