-
公开(公告)号:CN115700552A
公开(公告)日:2023-02-07
申请号:CN202110844430.1
申请日:2021-07-26
Applicant: 腾讯科技(深圳)有限公司 , 中国科学技术大学
IPC: G06F18/22 , G06F18/25 , G06N3/08 , G06F16/9535
Abstract: 本申请实施例公开了一种推荐模型的处理方法、装置、计算机设备及存储介质,属于计算机技术领域。该方法包括:基于推荐模型,获取第一用户信息与第一对象信息之间的第一匹配度,将第一匹配度与第一热门度进行融合,得到第一预测概率,基于第一预测概率,对推荐模型进行训练。本申请实施例提供的方法,由于第一对象信息包含与第一热门度关联的信息,导致基于推荐模型获取到的第一匹配度受到了第一热门度的影响。而第一预测概率是基于第一匹配度与第一热门度融合得到的,那么基于该第一预测概率对推荐模型进行训练,以使预测概率的损失值减小,从而提升预测概率的准确性,削弱了热门度对推荐模型输出的匹配度的影响,从而保证了推荐模型的准确性。
-
公开(公告)号:CN114637921A
公开(公告)日:2022-06-17
申请号:CN202210512081.8
申请日:2022-05-12
Applicant: 中国科学技术大学
IPC: G06F16/9535 , G06Q10/04 , G06Q30/02 , G06Q30/06
Abstract: 本发明提供了一种基于建模偶然不确定性的物品推荐方法、装置和设备,该方法包括:响应于物品推荐请求,获取目标用户的历史行为数据;将目标用户的历史行为数据输入至推荐模型中,输出目标用户‑物品对的预测分值;将目标用户的历史行为数据输入至不确定性估计器模型中,输出目标用户‑物品对的偶然不确定性数值;根据目标用户‑物品对的预测分值和目标用户‑物品对的偶然不确定性数值,确定目标推荐结果。
-
公开(公告)号:CN119404791A
公开(公告)日:2025-02-11
申请号:CN202411730855.X
申请日:2024-11-27
Applicant: 中国科学技术大学
Abstract: 本申请公开了一种用于自动化养殖的小车,包括车体、存料仓、投喂管和图像采集器,车体包括车轮和车架,车架上安装存料仓、投喂管和图像采集器;存料仓存放饲料,饲料通过投喂管投喂至养殖盒;图像采集器采集养殖盒内饲料的饲料图像和水产的水产图像,并上传到数据端,数据端对饲料图像和水产图像进行处理,判断需要投喂,阀门开启,饲料通过投喂管投喂至饲料观察投喂口,判断不需要投喂,阀门不开启;数据端根据水产图像得到水产的生存情况,并筛选出可能为病水产或死水产图像,人工观察图像判断是否需要处理。本方案公开的用于自动化养殖的小车,可以实现自动投喂和自动观察,提高了水产投喂和观察的效率,降低了水产投喂和观察的人工劳动强度。
-
公开(公告)号:CN118897915A
公开(公告)日:2024-11-05
申请号:CN202411025752.3
申请日:2024-07-29
Applicant: 北京达佳互联信息技术有限公司 , 中国科学技术大学 , 北京中科研究院
IPC: G06F16/9535 , G06F16/435 , G06F18/214 , G06N20/00
Abstract: 本公开提供了一种多任务推荐模型的训练方法、资源推荐方法、装置及设备,属于计算机技术领域。方法包括:将样本训练数据输入多任务推荐模型进行训练,得到多个第一梯度;对多个第一梯度的幅度和方向分别进行调整,得到多个第二梯度,多个第二梯度与多个第一梯度一一对应,第二梯度的幅度与多个第一梯度中最大的幅度之间的差距不大于幅度阈值,多个第二梯度中任意两个第二梯度的方向之间的夹角均不大于90度;基于多个第二梯度的平均梯度,更新多任务推荐模型。该方法能够在梯度上实现幅度平衡和全局方向平衡,以解决多任务推荐模型训练过程中多个任务对应的梯度存在的幅度冲突和方向冲突,从而提高多任务推荐模型的准确度。
-
公开(公告)号:CN116522007B
公开(公告)日:2023-10-20
申请号:CN202310814010.8
申请日:2023-07-05
Applicant: 中国科学技术大学
IPC: G06F16/9535 , G06N20/00 , G06F18/241
Abstract: 本发明公开了一种面向推荐系统模型的数据遗忘学习方法、装置及介质,该数据遗忘学习方法包括以下步骤:先得到推荐系统模型对于样本在训练数据集下的计算函数,其输出为对样本的预测,且该模型已经在训练数据集上训练到最优,通过该最优模型和影响函数估计,得到擦除不可用数据集后的模型。本发明不改变原始模型的训练架构、模型架构及部署方式,删除对于数据擦除不重要的模型参数,提升了基于影响函数擦除数据的准确度和擦除数据效率。
-
公开(公告)号:CN115809372B
公开(公告)日:2023-06-16
申请号:CN202310053850.7
申请日:2023-02-03
Applicant: 中国科学技术大学
IPC: G06F16/9535 , G06N20/00
Abstract: 本发明公开了一种基于解耦不变学习的点击率预测模型的训练方法及装置。该方法包括:步骤一,基于解耦不变学习方法构建点击率预测模型和模型优化目标;步骤二,对环境数据集进行随机采样,得到训练样本数据集;步骤三,固定点击率预测模型的环境特定部分参数,利用点击率预测模型挖掘训练样本数据集的环境不变特征,更新点击率预测模型的环境不变部分参数;步骤四,固定点击率预测模型的环境不变部分参数,利用更新的点击率预测模型挖掘训练样本数据集的环境特定特征,更新点击率预测模型的环境特定部分参数;迭代进行步骤二至步骤四,直到点击率预测模型满足预设的收敛条件,得到训练完成的点击率预测模型。
-
公开(公告)号:CN114637921B
公开(公告)日:2022-09-09
申请号:CN202210512081.8
申请日:2022-05-12
Applicant: 中国科学技术大学
IPC: G06F16/9535 , G06Q10/04 , G06Q30/02 , G06Q30/06
Abstract: 本发明提供了一种基于建模偶然不确定性的物品推荐方法、装置和设备,该方法包括:响应于物品推荐请求,获取目标用户的历史行为数据;将目标用户的历史行为数据输入至推荐模型中,输出目标用户‑物品对的预测分值;将目标用户的历史行为数据输入至不确定性估计器模型中,输出目标用户‑物品对的偶然不确定性数值;根据目标用户‑物品对的预测分值和目标用户‑物品对的偶然不确定性数值,确定目标推荐结果。
-
公开(公告)号:CN112381225A
公开(公告)日:2021-02-19
申请号:CN202011278089.X
申请日:2020-11-16
Applicant: 中国科学技术大学
IPC: G06N3/08 , G06N3/04 , G06N5/02 , G06K9/62 , G06F16/9535
Abstract: 本发明公开了一种优化未来性能的推荐系统重训练方法,包括:将当前时刻的基础模型参数输入至参数迁移模型,提取历史数据的知识并迁移到当前时刻的新数据中,固定参数迁移模型中的参数,并利用当前时刻的新数据输入到迁移模型中的输出计算损失,从而训练推荐系统,获得优化的基础模型参数;固定优化的基础模型参数,并输入至参数迁移模型,利用参数迁移模型输出的参数结合下一时刻的新数据来计算损失,从而训练参数迁移模型,获得优化的参数迁移模型参数;通过以上两步交替训练的方式,直至达到停止条件,获得训练好的推荐系统。该方法可以从任意旧模型中提取知识,使得训练中仅利用少量新数据也可以保留用户的长期兴趣并使得模型在未来达到最优。
-
公开(公告)号:CN119887349A
公开(公告)日:2025-04-25
申请号:CN202510361574.X
申请日:2025-03-26
Applicant: 中国科学技术大学
IPC: G06Q30/0601 , G06N5/04
Abstract: 本发明公开了基于大语言模型的隐空间解码生成式推荐方法及系统,所述方法包括:(1)、构建记忆模块,通过用户‑商品交互数据集生成训练样本的隐状态与真实商品的匹配对并存储,所述隐状态由大语言模型提取输入指令的最后一层最后一个隐状态得到;(2)、候选商品表示生成,从所述记忆模块中聚合与同一商品关联的隐状态,生成候选商品的隐空间表示;(3)、商品解码,计算测试样本的隐状态与候选商品表示的相似度,基于相似度排序生成推荐列表。本发明直接从大语言模型的隐空间进行解码,即只需要大语言模型前向传播一次获得用户输入的隐状态,避免了自回归方式的解码。显著降低大语言模型的解码商品的开销,且能保持优秀的推荐性能。
-
公开(公告)号:CN116522007A
公开(公告)日:2023-08-01
申请号:CN202310814010.8
申请日:2023-07-05
Applicant: 中国科学技术大学
IPC: G06F16/9535 , G06N20/00 , G06F18/241
Abstract: 本发明公开了一种面向推荐系统模型的数据遗忘学习方法、装置及介质,该数据遗忘学习方法包括以下步骤:先得到推荐系统模型对于样本在训练数据集下的计算函数,其输出为对样本的预测,且该模型已经在训练数据集上训练到最优,通过该最优模型和影响函数估计,得到擦除不可用数据集后的模型。本发明不改变原始模型的训练架构、模型架构及部署方式,删除对于数据擦除不重要的模型参数,提升了基于影响函数擦除数据的准确度和擦除数据效率。
-
-
-
-
-
-
-
-
-