-
公开(公告)号:CN112597392B
公开(公告)日:2022-09-30
申请号:CN202011564661.9
申请日:2020-12-25
Applicant: 厦门大学
IPC: G06F16/9535 , G06Q30/06 , G06N3/04 , G06N3/08
Abstract: 本发明公开了一种动态注意力和分层强化学习的推荐系统,包括用户画像矫正器:通过删除噪声数据来修改用户画像;(2)动态注意力机制:自动调整用户偏好的变化;(3)推荐模型:向相关用户推荐目标物品。所述推荐系统具有以下特点:动态注意力机制通过一个多层感知器自动调整每个交互过程中相应物品的attention权重,并将基于分层强化学习的用户画像矫正器合并到一个统一的框架中;其次,为了增强推荐系统的自适应性,以提高推荐的准确性,推荐系统针对不同时段物品交互的信息,在attention权重上增加了一个自适应系数,以便在每个推荐阶段自动更新相应物品的attention权重;最后,与HRL模型相比,本推荐系统可以提高策略评估的收敛速度,每个推荐阶段的开销时间更少。
-
公开(公告)号:CN112597391A
公开(公告)日:2021-04-02
申请号:CN202011564657.2
申请日:2020-12-25
Applicant: 厦门大学
IPC: G06F16/9535 , G06Q30/06 , G06N20/00
Abstract: 本发明公开了一种基于动态递归机制的分层强化学习的推荐系统,包括用户画像矫正器:采用一种动态递归机制的策略梯度方法,及引入参数动态稀疏权重以删除噪声数据来修改用户画像,其中,所述动态递归机制的策略梯度方法包括:动态基线和基于时序上下文的递归强化学习,所述动态基线为采用动态稀疏权重对总收益进行学习策略的改进;注意力机制:用于自动调整用户偏好的变化;推荐模型:用于通过注意力机制向用户推荐最相关物品。本发明的推荐系统,通过在策略梯度方法中引入一个参数动态稀疏权重,使智能体在全局最优策略下选择最优行为;其次,结合时间上下文的分层强化学习,该方法能够更可靠地收敛,从而提高模型预测的稳定性。
-
公开(公告)号:CN118433210A
公开(公告)日:2024-08-02
申请号:CN202410308711.9
申请日:2024-03-18
Applicant: 厦门大学平潭研究院 , 莆田市默领科技有限公司
IPC: H04L67/12 , G01B11/22 , A47G33/00 , G06F40/30 , G06N3/0442 , H04L67/125 , G10L25/63 , G10L25/30 , H04N5/262
Abstract: 本发明涉及一种远程祈福方法及系统,该方法中包括:服务端实时采集并生成祈福场景数据,将祈福场景数据发送至服务器,接收服务器转发的用户指令,根据用户指令进行祈福场景中各虚拟祈福组件的组件状态的更新;服务器接收祈福场景数据并转发至用户端,接收用户端发送的用户指令并转发至服务端;用户端基于接收的祈福场景数据构建或更新虚拟祈福场景,将虚拟祈福场景发送至显示界面显示,接收用户发送的用户指令发送至服务器。本发明实现了用户远程祈福,提升了用户的祈福体验。
-
公开(公告)号:CN112597392A
公开(公告)日:2021-04-02
申请号:CN202011564661.9
申请日:2020-12-25
Applicant: 厦门大学
IPC: G06F16/9535 , G06Q30/06 , G06N3/04 , G06N3/08
Abstract: 本发明公开了一种动态注意力和分层强化学习的推荐系统,包括用户画像矫正器:通过删除噪声数据来修改用户画像;(2)动态注意力机制:自动调整用户偏好的变化;(3)推荐模型:向相关用户推荐目标物品。所述推荐系统具有以下特点:动态注意力机制通过一个多层感知器自动调整每个交互过程中相应物品的attention权重,并将基于分层强化学习的用户画像矫正器合并到一个统一的框架中;其次,为了增强推荐系统的自适应性,以提高推荐的准确性,推荐系统针对不同时段物品交互的信息,在attention权重上增加了一个自适应系数,以便在每个推荐阶段自动更新相应物品的attention权重;最后,与HRL模型相比,本推荐系统可以提高策略评估的收敛速度,每个推荐阶段的开销时间更少。
-
公开(公告)号:CN118552308A
公开(公告)日:2024-08-27
申请号:CN202410464884.X
申请日:2024-04-17
Applicant: 厦门大学平潭研究院
Abstract: 本发明涉及一种投资组合优化方法、终端设备及存储介质,该方法中包括:采集待分析股票市场的交易区间内各股票的新闻数据;计算股票在每个交易日的情绪分数,并转换为股票情绪分数向量;将距离当前交易日最近的k个历史交易日的股票价格特征与股票情绪分数向量相结合,作为强化学习中当前交易日的状态;构建强化学习模型,将当前交易日的状态作为策略网络的输入,设定动作为当前交易日开始时的投资组合权重向量,结合当前交易日的价格变化向量设定奖励;通过历史状态转移数据对强化学习模型中的模型参数进行优化,得到训练好的投资组合优化策略。本发明充分发掘财务数据的复杂性和非线性特征,提高了模型在优化投资组合时的稳定性和效率。
-
公开(公告)号:CN112597391B
公开(公告)日:2022-08-12
申请号:CN202011564657.2
申请日:2020-12-25
Applicant: 厦门大学
IPC: G06F16/9535 , G06Q30/06 , G06N20/00
Abstract: 本发明公开了一种基于动态递归机制的分层强化学习的推荐系统,包括用户画像矫正器:采用一种动态递归机制的策略梯度方法,及引入参数动态稀疏权重以删除噪声数据来修改用户画像,其中,所述动态递归机制的策略梯度方法包括:动态基线和基于时序上下文的递归强化学习,所述动态基线为采用动态稀疏权重对总收益进行学习策略的改进;注意力机制:用于自动调整用户偏好的变化;推荐模型:用于通过注意力机制向用户推荐最相关物品。本发明的推荐系统,通过在策略梯度方法中引入一个参数动态稀疏权重,使智能体在全局最优策略下选择最优行为;其次,结合时间上下文的分层强化学习,该方法能够更可靠地收敛,从而提高模型预测的稳定性。
-
公开(公告)号:CN117808637A
公开(公告)日:2024-04-02
申请号:CN202311659727.6
申请日:2023-12-05
IPC: G06Q50/20 , G06N3/04 , G06N3/092 , G06F16/9535
Abstract: 本发明涉及一种基于GPT和多智能体强化学习的智能导学方法,包括:S1:接收用户信息;S2:根据用户信息,基于多智能体系统对用户进行智能体匹配,智能体匹配过程采用GPT模型,得到符合用户学习需求的智能体;S3:将匹配到的智能体用于用户与多智能体系统的交互学习;S4:对各用户的学习结果进行评估;S5:根据学习评估结果,对智能体的策略网络进行优化调整。本发明实现智能导学中不同智能体之间的协同合作,提高用户的学习效率和交互体验。
-
公开(公告)号:CN115238169A
公开(公告)日:2022-10-25
申请号:CN202210666129.0
申请日:2022-06-14
Applicant: 厦门大学
IPC: G06F16/9535 , G06F16/36 , G06N3/08 , G06N5/04
Abstract: 本发明涉及一种慕课可解释推荐方法、终端设备及存储介质,该方法中包括:根据学习者历史选课记录中实体和实体之间的关系构建三元组数据集;基于三元组数据集构建知识图谱,通过TransE模型对知识图谱中的实体和关系进行向量化表示,其中,分别通过粗粒度的课程表示方法和细粒度的概念表示方法表示学习者和课程;构建基于自监督强化学习方法的学习路径推理模型,用于指导推荐智能体在知识图谱上从学习者至目标课程的学习路径推理;采用执行者‑评论家算法训练学习路径推理模型;通过训练后的学习路径推理模型进行学习者至目标课程之间的学习路径推理。本发明不仅可以在知识图谱中构建显性信息和隐性反馈,而且还通过深度强化学习进行慕课可解释推荐。
-
公开(公告)号:CN113658006A
公开(公告)日:2021-11-16
申请号:CN202110539590.5
申请日:2021-05-18
Applicant: 厦门大学
Abstract: 本发明公开了一种基于多目标进化算法的投资组合优化方法、介质及设备,其中方法包括:S1,生成邻居;S2,初始化种群的计算目标;S3,初始化帕累托平面的两个极值点;S4,遍历种群;S5,生成随机数,并判断随机数是否大于预设的阈值,是,则执行S6,否,则执行S7;S6,将种群作为父代备选池;S7,将邻居作为父代备选池;S8,确定当前个体对应的子代个体,以得到子代目标;S9,根据子代目标更新两个极值点;S10,计算相应的切比雪夫值,以及更新父代备选池中的个体和目标;S11,迭代结束后确定最终目标;能够在通过多目标进化算法进行投资组合优化的过程中,提高算法的收敛性、多样性和全局搜索能力。
-
-
-
-
-
-
-
-