-
公开(公告)号:CN118070278A
公开(公告)日:2024-05-24
申请号:CN202311611901.X
申请日:2023-11-29
Applicant: 重庆邮电大学
IPC: G06F21/56 , G06N20/00 , G06F18/214 , G06F21/60 , G06N3/0464
Abstract: 本发明涉及一种联邦学习后门攻击防御方法及系统,属于信息安全领域。该方法首先终端在执行本地训练前进行数据预处理操作,将数据从时域转换到频域,并设计低通滤波器过滤数据中由后门样本带来的高频信号;其次在服务器端检测恶意上传更新,计算预全局模型与本地模型间的余弦相似度,设置合适的阈值筛选恶意上传的本地模型更新;最后对剩余的非恶意上传更新执行全局聚合操作得到更新的全局模型,并结合差分隐私技术对得到的全局模型进行扰动。本发明充分考虑了后门攻击在不同位置进行攻击的情形,可以在减轻联邦学习后门攻击的同时不影响模型在良性数据上的表现性能,解决了联邦学习的后门攻击防御问题。
-
公开(公告)号:CN115392481A
公开(公告)日:2022-11-25
申请号:CN202210975053.X
申请日:2022-08-15
Applicant: 重庆邮电大学
Abstract: 本发明涉及一种基于响应时间实时均衡的联邦学习高效通信方法,属于联邦机器学习领域。首先,在预先设定的簇迭代训练中,每个响应的终端设备分别根据自身的本地模型计算时间,均衡的划分至预先设定的计算簇中,构建基于“云服务器‑Head节点‑终端设备”一体的分层通信架构,从通信结构上间接增加了低响应设备的模型训练参与度。然后,使响应快的设备能够帮助响应慢的设备进行训练。本发明通过对异构的计算设备动态分组,自适应构建分层的逻辑通信架构,并在计算簇内设计加权的协作训练机制,间接提高了低响应设备的模型训练参与度,从本质上解决了联邦机器学习技术中,由于资源异构所导致的通信等待延时问题,提高了训练模型的精确度。
-
公开(公告)号:CN113919512B
公开(公告)日:2022-09-23
申请号:CN202111139211.X
申请日:2021-09-26
Applicant: 重庆邮电大学
IPC: G06N20/20
Abstract: 本发明涉及一种基于计算资源逻辑分层的联邦学习通信优化方法及系统,属于联邦机器学习领域,首先,云中心根据所有终端参与设备的本地计算资源大小将其划分为多个计算资源大小均衡的计算簇,并在每个计算簇中筛选一个计算资源最多的终端设备作为簇的Head节点,构建基于“云中心‑Head节点‑终端设备”一体的分层通信架构,实现粗粒度的簇间计算资源均衡。然后,在每个簇中,设计加权平均全局模型更新机制,将混合权重设置为Staleness的函数,使计算资源丰富的终端设备能够与Head节点进行更多轮通信,从而实现簇内协作训练,进而以细粒度的方式对计算资源进行再分配。本发明从本质上解决了联邦学习技术中的高通信代价问题。
-
公开(公告)号:CN113919512A
公开(公告)日:2022-01-11
申请号:CN202111139211.X
申请日:2021-09-26
Applicant: 重庆邮电大学
IPC: G06N20/20
Abstract: 本发明涉及一种基于计算资源逻辑分层的联邦学习通信优化方法及系统,属于联邦机器学习领域,首先,云中心根据所有终端参与设备的本地计算资源大小将其划分为多个计算资源大小均衡的计算簇,并在每个计算簇中筛选一个计算资源最多的终端设备作为簇的Head节点,构建基于“云中心‑Head节点‑终端设备”一体的分层通信架构,实现粗粒度的簇间计算资源均衡。然后,在每个簇中,设计加权平均全局模型更新机制,将混合权重设置为Staleness的函数,使计算资源丰富的终端设备能够与Head节点进行更多轮通信,从而实现簇内协作训练,进而以细粒度的方式对计算资源进行再分配。本发明从本质上解决了联邦学习技术中的高通信代价问题。
-
-
-