-
公开(公告)号:CN116304675A
公开(公告)日:2023-06-23
申请号:CN202310049181.6
申请日:2023-02-01
Applicant: 北京邮电大学
IPC: G06F18/214
Abstract: 本申请提供一种基于联邦学习的模型训练方法、电子设备及存储介质。其中,应用于本地客户端的方法包括:响应于一轮训练开始,获取初始本地模型以及初始全局模型,其中,初始本地模型为上一轮训练中更新完成后的本地模型,初始全局模型为上一轮训练中中心服务器返回的全局模型;利用本地数据集、初始本地模型以及初始全局模型,并基于对比学习更新初始本地模型;将更新完成后的本地模型的本地模型参数发送至中心服务器;接收中心服务器返回的全局模型,一轮训练结束。本申请提供的方法利用对比学习判断数据相似度的思想,解决本地客户端数据集的异构问题,提高模型在训练完成后的性能。
-
公开(公告)号:CN118504658A
公开(公告)日:2024-08-16
申请号:CN202410590510.2
申请日:2024-05-13
Applicant: 北京邮电大学
IPC: G06N3/098 , G06N3/0499
Abstract: 本申请提供一种预训练联邦学习微调方法、系统、电子设备及存储介质,所述方法包括:确定调整策略,根据调整策略调整第一矩阵的参数量,并将第一矩阵插入到预训练矩阵;获取数据集,将数据集输入到预训练矩阵和第一矩阵,正向传播确定损失;确定传播梯度,根据损失和传播梯度,利用反向传播更新第一矩阵;对不同来源的第一矩阵进行聚合,生成第二矩阵,并对与第一矩阵对应来源的损失进行聚合,生成全局损失;响应于调整策略执行完成,且全局损失最小,则确定对应的第二矩阵。响应于调整策略未执行完成,或全局损失未达到最小,则将第二矩阵插入到预训练矩阵并重复上述步骤,直至调整策略执行完成且全局损失最小。
-
公开(公告)号:CN116614365A
公开(公告)日:2023-08-18
申请号:CN202210120933.9
申请日:2022-02-09
Applicant: 北京邮电大学
IPC: H04L41/0813 , H04L41/0893 , H04L41/14 , H04L9/06 , H04L9/30 , H04L9/32 , H04L67/10
Abstract: 本申请公开了用户私有模型更新的方法、装置、设备以及存储介质,涉及网络领域,尤其涉及用户私有模型的更新。具体实现方案为:一种用户私有模型更新的方法,包括:获取使用中的网络节点的信息,以及使用所述网络节点的用户的历史私有模型;将所述网络节点的信息与所述历史私有模型结合计算,获得所述用户的新的用户私有模型。本申请采用以用户为中心的工作方式,将所述用户的历史私有模型和当前的网络节点信息结合,生成便于用户当前使用的私有模型,有利于用户在当前网络节点上更高效的处理数据,满足用户的需求。
-
公开(公告)号:CN116614364A
公开(公告)日:2023-08-18
申请号:CN202210120864.1
申请日:2022-02-09
Applicant: 北京邮电大学
IPC: H04L41/0813 , H04L41/14 , H04L45/00 , H04L9/40 , G06F8/65
Abstract: 本公开提供了模型安全更新的方法、装置、设备以及存储介质,涉及网络技术领域,尤其涉及智简网络模型安全更新领域。具体实现方案为:模型安全更新的方法,包括:在发送端将新模型切分为N个切片;通过发送端和接收端之间的M个路由节点,将N个切片发送至接收端;所述M个路由节点将N个切片的切片记录发送至所述接收端;接收端根据M个路由节点上存储的所述切片记录,确定收到的N个切片是否完整;接收端重组N个切片为新模型;接收端利用所述新模型替换旧模型。本技术方案的实施,能够很好的保证模型切片的安全传输,以及模型的安全更新。
-
-
-