残差自适应压缩的高效通信联邦学习模型训练方法及系统

    公开(公告)号:CN119539028A

    公开(公告)日:2025-02-28

    申请号:CN202411362878.X

    申请日:2024-09-27

    Abstract: 本发明涉及分布式学习和无线通信技术领域,特别是一种残差自适应压缩的高效通信联邦学习模型训练方法及系统。客户端获取全局模型并更新;利用本地模型内存集和更新模型权重获得本地模型残差;对残差进行自适应稀疏压缩并传输至服务器;服务器选择可靠客户端进行模型权重预测和聚合;将更新后的全局模型广播至客户端,重复上述步骤直至收敛。本发明通过自适应压缩和可靠客户端选择,显著降低了通信开销,提高了模型收敛速度和最终性能。特别适用于资源受限的边缘计算场景,有效解决了联邦学习中的通信效率、模型性能和隐私保护等关键问题,为联邦学习的广泛应用提供了新的可能性。

    基于连续学习的波束成形深度神经网络训练方法及系统

    公开(公告)号:CN115470892A

    公开(公告)日:2022-12-13

    申请号:CN202211261064.8

    申请日:2022-10-14

    Abstract: 本发明公开了基于连续学习的波束成形深度神经网络训练方法及系统,该系统包括内存集模块、混合模块、波束成形矩阵恢复模块、神经网络模块。进入新时隙,在每个时隙的训练过程中,将内存集与当前时隙样本集混合供模型进行训练,在当前时隙的训练周期结束后,将内存集和当前时隙样本集送入训练后的模型产生预测输出。针对所有样本的预测值,模型计算性能函数值,依据每个样本性能,按不同比例从内存集和当前时隙样本集中挑选性能表现差的样本更新内存集,再次进入新的时隙时,并迭代执行上述步骤,获得最优模型权重。本发明基于连续学习的波束成形深度神经网络训练方法适应动态变化的实际通信环境,在信道分布变化的情况下保持良好的通信性能。

Patent Agency Ranking