-
公开(公告)号:CN117221122A
公开(公告)日:2023-12-12
申请号:CN202311172306.0
申请日:2023-09-12
Applicant: 南京邮电大学
IPC: H04L41/0896 , H04L67/10 , H04L41/14 , G06N3/098 , G06N20/00
Abstract: 本发明公开了一种基于带宽预分配的异步分层联合学习训练方法,包括:在训练开始时,云服务器在每个边缘服务器范围内选取相应数量的客户端,并将最新的模型参数分发给客户端;客户端利用自身的数据对模型参数进行多轮迭代,训练结束时,根据其当前位置选择最近且有剩余带宽的边缘服务器进行模型参数上传,并根据带宽情况合理分配资源以加速上传速度;每个边缘服务器在经过一定时间间隔Taggregation后进行一轮边缘聚合,然后将聚合后的参数上传至云服务器进行一轮云聚合;经过云聚合后,云服务器再进行下一轮客户端的选取。本发明不仅适应动态场景下参与方之间数据分布的变化,还能充分利用有限的通信资源,从而提升训练效果。
-
公开(公告)号:CN117221122B
公开(公告)日:2024-02-09
申请号:CN202311172306.0
申请日:2023-09-12
Applicant: 南京邮电大学
IPC: H04L41/0896 , H04L67/10 , H04L41/14 , G06N3/098 , G06N20/00
Abstract: 本发明公开了一种基于带宽预分配的异步分层联合学习训练方法,包括:在训练开始时,云服务器在每个边缘服务器范围内选取相应数量的客户端,并将最新的模型参数分发给客户端;客户端利用自身的数据对模型参数进行多轮迭代,训练结束时,根据其当前位置选择最近且有剩余带宽的边缘服务器进行模型参数上传,并根据带宽情况合理分配资源以加速上传速度;每个边缘服务器在经过一定时间间隔Taggregation后进行一轮边缘聚合,然后将聚合后的参数上传至云服务器进行一轮云聚合;经过云聚合后,云服务器再进行下一轮客户端的选取。本发明不仅适应动态场景下参与方之间数据分布的变化,还能充分利用有限的通信资源,从而提升训练效果。
-