-
公开(公告)号:CN118886482A
公开(公告)日:2024-11-01
申请号:CN202411002321.5
申请日:2024-07-25
Applicant: 大连理工大学
Abstract: 本发明提供了一种增强结构化联邦图学习方法,属于深度学习技术领域。本发明所述方法包括客户贡献评估、参数调整和知识忘却;客户贡献评估利用信誉理论评估客户贡献;参数调整采用注意力机制和熵权法调整关键参数,减少聚合误差并优化全局模型性能;知识忘却通过结合软混淆和硬混淆损失处理数据遗忘请求,确保特定知识被遗忘而不影响整体性能。本发明解决了大规模图数据训练中的数据隔离问题及应对非独立同分布数据和多样化本地模型特征问题;即使参与者可靠性较低,准确率仍能够保证;并且从客户端移除特定知识并将其传播到全局模型,很好地应对用户提出的忘却请求。本发明显著提高了全局模型的准确性,在满足忘却请求后,更好地保持了模型精度。
-
公开(公告)号:CN119005262A
公开(公告)日:2024-11-22
申请号:CN202411002316.4
申请日:2024-07-25
Applicant: 大连理工大学
IPC: G06N3/0495 , G06F18/23213 , G06N3/082 , G06N3/045 , G06N3/098 , G06F21/62
Abstract: 本发明提供了一种恶意客户负面影响忘却方法及应用、电子设备与存储介质,属于深度学习技术领域。本发明通过计算客户端的本地模型参数的低质量因子并利用K‑means聚类算法筛选出含有低质量数据的恶意客户端,并进一步筛选出恶意客户端本地模型中受低质量数据影响的参数;随后,通过知识蒸馏技术对恶意客户端的负面影响进行忘却。本发明能有效识别并处理低质量的本地模型段,减少不良数据对全局模型的负面影响,同时保留高质量数据的积极贡献,降低了计算和通信成本;该方法动态调整模型参数,确保模型在各种环境下始终保持最佳性能,并通过联邦学习框架增强客户隐私保护,提高了分布式数据训练的效率和可靠性。
-