-
公开(公告)号:CN119539028A
公开(公告)日:2025-02-28
申请号:CN202411362878.X
申请日:2024-09-27
Applicant: 南京邮电大学
IPC: G06N3/098 , G06N3/082 , G06N3/0464
Abstract: 本发明涉及分布式学习和无线通信技术领域,特别是一种残差自适应压缩的高效通信联邦学习模型训练方法及系统。客户端获取全局模型并更新;利用本地模型内存集和更新模型权重获得本地模型残差;对残差进行自适应稀疏压缩并传输至服务器;服务器选择可靠客户端进行模型权重预测和聚合;将更新后的全局模型广播至客户端,重复上述步骤直至收敛。本发明通过自适应压缩和可靠客户端选择,显著降低了通信开销,提高了模型收敛速度和最终性能。特别适用于资源受限的边缘计算场景,有效解决了联邦学习中的通信效率、模型性能和隐私保护等关键问题,为联邦学习的广泛应用提供了新的可能性。
-
公开(公告)号:CN115529625A
公开(公告)日:2022-12-27
申请号:CN202210711607.5
申请日:2022-06-22
Applicant: 南京卓云邮通科技有限公司 , 南京邮电大学
Inventor: 周欢 , 杨凡 , 彭敏鑫 , 徐波 , 刘娅璇 , 崔燕茹 , 吴丰靖 , 高赟 , 刘颖 , 张旭妍 , 邵鑫宇 , 王思洋 , 荀位 , 徐邦宁 , 徐卓然 , 孙文雪 , 吕锦钰 , 谈宇浩 , 赵海涛 , 张晖 , 夏文超 , 倪艺洋 , 杨洁
Abstract: 本发明公开了一种移动性任务卸载方法、系统及存储介质,待任务卸载的用户设备获取其通信范围内边缘节点设备的位置和方向向量信息,并计算用户设备与每个边缘节点设备的通信时间;以用户设备任务卸载耗费的总时延作为筛选约束,筛选出满足通信时间大于任务卸载总时延的边缘节点设备,将任务拆分后卸载到每个可用边缘节点设备上执行;其中,所述总时延由传输时延和计算时延加和得到;所述传输时延指将任务卸载到边缘节点设备所需的时间;所述计算时延指边缘节点设备的数据处理时间。该发明能够在无线分布式边缘计算环境下,考虑边缘节点设备的移动性,缩短边缘节点设备卸载响应时间,提高卸载成功率。
-
公开(公告)号:CN115470892A
公开(公告)日:2022-12-13
申请号:CN202211261064.8
申请日:2022-10-14
Applicant: 南京邮电大学
Abstract: 本发明公开了基于连续学习的波束成形深度神经网络训练方法及系统,该系统包括内存集模块、混合模块、波束成形矩阵恢复模块、神经网络模块。进入新时隙,在每个时隙的训练过程中,将内存集与当前时隙样本集混合供模型进行训练,在当前时隙的训练周期结束后,将内存集和当前时隙样本集送入训练后的模型产生预测输出。针对所有样本的预测值,模型计算性能函数值,依据每个样本性能,按不同比例从内存集和当前时隙样本集中挑选性能表现差的样本更新内存集,再次进入新的时隙时,并迭代执行上述步骤,获得最优模型权重。本发明基于连续学习的波束成形深度神经网络训练方法适应动态变化的实际通信环境,在信道分布变化的情况下保持良好的通信性能。
-
-