-
公开(公告)号:CN119539028A
公开(公告)日:2025-02-28
申请号:CN202411362878.X
申请日:2024-09-27
Applicant: 南京邮电大学
IPC: G06N3/098 , G06N3/082 , G06N3/0464
Abstract: 本发明涉及分布式学习和无线通信技术领域,特别是一种残差自适应压缩的高效通信联邦学习模型训练方法及系统。客户端获取全局模型并更新;利用本地模型内存集和更新模型权重获得本地模型残差;对残差进行自适应稀疏压缩并传输至服务器;服务器选择可靠客户端进行模型权重预测和聚合;将更新后的全局模型广播至客户端,重复上述步骤直至收敛。本发明通过自适应压缩和可靠客户端选择,显著降低了通信开销,提高了模型收敛速度和最终性能。特别适用于资源受限的边缘计算场景,有效解决了联邦学习中的通信效率、模型性能和隐私保护等关键问题,为联邦学习的广泛应用提供了新的可能性。