-
公开(公告)号:CN114510646B
公开(公告)日:2025-02-18
申请号:CN202210108891.7
申请日:2022-01-28
Applicant: 南京邮电大学
IPC: G06F16/9536 , G06F18/214 , G06N3/098
Abstract: 一种基于联邦学习的神经网络协同过滤推荐方法,无需集中收集用户的个人数据并且上传到受信的中心服务器来进行存储与训练模型,仅在本地进行数据训练,然后在中心服务器端协同多个本地模型进行优化,进而聚合多个本地模型的中间参数来得到服务端全局较优的模型,并下发到每个终端上。本地参与端训练中,本方法有别于传统的基于聚类、最近邻和矩阵分解等方法,按一定比例将数据集转换为隐式反馈数据集,构建神经协同过滤通用框架NCF,输入one‑hot编码用户和项目向量,输出预测结果,并对上传更新的权重进行差分隐私加噪。本方法在保证数据模型的隐私安全前提下,有效的提高了推荐效果。
-
公开(公告)号:CN114510646A
公开(公告)日:2022-05-17
申请号:CN202210108891.7
申请日:2022-01-28
Applicant: 南京邮电大学
IPC: G06F16/9536 , G06K9/62 , G06N3/08
Abstract: 一种基于联邦学习的神经网络协同过滤推荐方法,无需集中收集用户的个人数据并且上传到受信的中心服务器来进行存储与训练模型,仅在本地进行数据训练,然后在中心服务器端协同多个本地模型进行优化,进而聚合多个本地模型的中间参数来得到服务端全局较优的模型,并下发到每个终端上。本地参与端训练中,本方法有别于传统的基于聚类、最近邻和矩阵分解等方法,按一定比例将数据集转换为隐式反馈数据集,构建神经协同过滤通用框架NCF,输入one‑hot编码用户和项目向量,输出预测结果,并对上传更新的权重进行差分隐私加噪。本方法在保证数据模型的隐私安全前提下,有效的提高了推荐效果。
-