-
公开(公告)号:CN110910218A
公开(公告)日:2020-03-24
申请号:CN201911146484.X
申请日:2019-11-21
Applicant: 南京邮电大学
Abstract: 本发明公开一种基于深度学习的多行为迁移推荐方法,首先,获取用户的多种隐式反馈数据集并进行处理;构建一个基网络Gb和多个行为网络G(k),并利用网络表示学习方法学习用户和物品节点在各个网络中的低维嵌入表示;然后,基于用户的多个隐式行为反馈对用户偏好建模的影响不同,使用注意力机制自动学习各个行为的权重,得到用户和物品的融合低维嵌入表示;最后,将用户和物品的低维嵌入向量自然拼接后送入全连接嵌入层,采用基于深度神经网络的偏好学习方法,并反馈到具有隐藏层的前馈神经网络中,在输出层学习用户对物品的偏好。本发明能够更好地捕获用户的偏好并实现个性化推荐,且具有推荐准确率高、泛化能力强,易于实现等优点。
-
公开(公告)号:CN110910218B
公开(公告)日:2022-08-26
申请号:CN201911146484.X
申请日:2019-11-21
Applicant: 南京邮电大学
Abstract: 本发明公开一种基于深度学习的多行为迁移推荐方法,首先,获取用户的多种隐式反馈数据集并进行处理;构建一个基网络Gb和多个行为网络G(k),并利用网络表示学习方法学习用户和物品节点在各个网络中的低维嵌入表示;然后,基于用户的多个隐式行为反馈对用户偏好建模的影响不同,使用注意力机制自动学习各个行为的权重,得到用户和物品的融合低维嵌入表示;最后,将用户和物品的低维嵌入向量自然拼接后送入全连接嵌入层,采用基于深度神经网络的偏好学习方法,并反馈到具有隐藏层的前馈神经网络中,在输出层学习用户对物品的偏好。本发明能够更好地捕获用户的偏好并实现个性化推荐,且具有推荐准确率高、泛化能力强,易于实现等优点。
-
-
公开(公告)号:CN111402919A
公开(公告)日:2020-07-10
申请号:CN201911278068.5
申请日:2019-12-12
Applicant: 南京邮电大学
Abstract: 本发明公开了一种基于多尺度多视图的戏曲唱腔风格识别方法,包括步骤如下:S1收集戏曲音频并进行正反例标记;S2对标记的戏曲音频进行预处理;S3对预处理之后的音频进行特征提取;S4搭建训练模型,优化模型参数;S5使用优化后的卷积神经网络模型,识别正例戏曲风格。从原始音频数据中生成语谱图、MFCC谱图等多个视图下的表示,并在不同尺度下生成训练样本,随后采用卷积神经网络(CNN)模型抽取特征并融合至分类模型中,以识别某类特定艺术家的风格。本方法可以准确识别戏曲的风格,可作为戏曲教学中的唱腔评分依据,模型学得的参数也可用于生成具有特定风格的唱腔。
-
-
-