-
公开(公告)号:CN117743869B
公开(公告)日:2024-05-17
申请号:CN202410179740.X
申请日:2024-02-18
Applicant: 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院)
IPC: G06F18/22 , G06F18/213 , G06N3/0464 , G06N3/0442 , G06N3/045 , G06N3/08
Abstract: 本发明公开了一种内容发现方法、系统、终端及存储介质,其中,所述方法包括:获取目标品牌信息和目标用户内容生成信息;将视频内容信息输入到视频编码模型中得到视频特征向量,将文本内容信息输入到文本编码模型中得到文本特征向量,将目标品牌信息输入到品牌编码模型中得到品牌语义;采用预先训练完成的得分函数生成目标用户内容生成信息与目标品牌信息的相似度;获取相似度,根据预设的选取阈值从所有的目标用户内容生成信息中选取目标内容信息。本发明通过所述方法,解决了采用单模态的内容发现方法时存在着由于仅利用了图像资料而忽略了文本、话题标签等多模态信息或只利用神经网络提取图像特征而无法利用视频中语义信息的问题。
-
公开(公告)号:CN115330398A
公开(公告)日:2022-11-11
申请号:CN202211264844.8
申请日:2022-10-17
Applicant: 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院)
Abstract: 本发明公开了一种基于强化学习的量化模型训练方法、系统、终端及介质,能够根据交易环境数据动态生成交易策略和交易策略的价值数据从而扩展并更新蒙特卡洛树,再根据蒙特卡洛树搜索路径评估量化目标的完成情况,将评估结果作为奖励值反向更新训练量化模型,训练后的量化模型能够根据交易环境数据动态生成交易策略。与现有技术相比,不用人为设定奖励值,而是通过蒙特卡洛树来自动生成奖励值以更新量化模型,使得量化模型优化效果好、鲁棒性高。
-
公开(公告)号:CN111291890B
公开(公告)日:2021-01-01
申请号:CN202010399728.1
申请日:2020-05-13
Applicant: 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院)
Abstract: 本发明提供了一种博弈策略优化方法、系统及存储介质,该博弈策略优化方法包括建立基于最大熵的策略递度算法步骤和多智能体最优反应策略求解步骤。本发明的有益效果是:本发明采用中心化训练和分散式执行的方式,提高动作估值网络的准确性,同时引入了全局基线奖励来更准确地衡量智能体的动作收益,以此来解决人博弈中的信用分配问题。同时引入了最大熵方法来进行策略评估,平衡了策略优化过程中的探索与利用。
-
公开(公告)号:CN111260040A
公开(公告)日:2020-06-09
申请号:CN202010370070.1
申请日:2020-05-06
Applicant: 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院)
Abstract: 本发明提供了一种基于内在奖励的视频游戏决策方法,包括以下步骤:S1、获取视频游戏模拟环境;S2、构建神经网络模型;S3、设计内在奖励模型;S4、将内在奖励模型与构建的神经网络模型结构结合;S5、通过模拟环境获取游戏的记录;S6、通过获取的游戏记录,更新神经网络模型;S7、循环训练神经网络模型直至收敛。本发明的有益效果是:较好的解决了三维场景中较为常见的缺乏环境反馈奖励值的问题。
-
公开(公告)号:CN118246556A
公开(公告)日:2024-06-25
申请号:CN202410668413.0
申请日:2024-05-28
Applicant: 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院)
IPC: G06N5/04 , G06N3/0455 , G06N3/0499 , G06N3/092 , G06F16/35 , G06F8/41
Abstract: 本发明公开了一种基于强化学习的类型推断方法及装置,包括:获取运行环境数据和代码数据,并对所述运行环境数据和所述代码数据进行预处理,得到合法类型序列及类型流序列;根据所述合法类型序列及所述类型流序列,进行带类型标注的代码生成任务的监督训练;根据生成的带类型标注的目标代码,进行静态反馈的强化学习训练,得到强化后的代码生成模型。本发明提出了使用基于生成的方法来预测类型,并通过强化学习来增强生成模型的类型预测的准确性,解决了现有的类型推断模型的预测结果与实际应用偏差较大的问题。
-
公开(公告)号:CN117035074B
公开(公告)日:2024-02-13
申请号:CN202311286288.9
申请日:2023-10-08
Applicant: 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院)
Abstract: 本发明公开了一种基于反馈强化的多模态知识生成方法及装置,包括:构建多模态模型,在多模态知识生成任务中将人类反馈引入所述多模态模型,形成的监督数据用于训练预先设立的奖励回报模型;将所述监督数据输入奖励回报模型进行训练,使得奖励回报模型从所述监督数据中学习到人类的理解;利用内外探索相结合的强化学习方法微调所述多模态模型,使得多模态模型能够学习到人类偏好,生成更自然的知识;本发明具有人类反馈知识的强化学习方法应用于多模态知识生成任务中,解决了多模态知识生成任务缺乏人类反馈监督的不足,并引入基于内外探索相结合的强化学习微调技术,有效缓解多奖励稀疏问题。
-
公开(公告)号:CN115601960A
公开(公告)日:2023-01-13
申请号:CN202211122126.7
申请日:2022-09-15
Applicant: 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院)(CN)
Abstract: 本发明公开了一种基于图对比学习的多模态交通流量预测方法及系统,方法包括:基于历史交通流量数据建立局部和全局流量异构图;对全局和局部流量异构图进行编码得到对应的异构图流量特征;计算局部流量异构图流量特征的互信息来优化局部流量异构图流量特征;多个局部流量异构图流量特征经过注意力机制融合成的全局流量特征,与全局流量异构图流量特征进行图对比学习来优化全局流量异构图流量特征;将优化后的局部和全局流量异构图流量特征输入到空间图卷积神经网络分别预测多模态的交通流量。本发明可以有效地捕获不同出行模式之间的相关性和差异性,有助于更好地捕获多种出行模式之间的依赖关系,从而提升交通流量预测的精度。
-
公开(公告)号:CN114756694B
公开(公告)日:2022-10-14
申请号:CN202210677070.5
申请日:2022-06-16
Applicant: 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) , 平安科技(深圳)有限公司
Abstract: 本发明提供的一种基于知识图谱的推荐系统、推荐方法和相关设备,系统包括:用户历史信息嵌入模块根据用户的历史交互行为生成用户表征;知识感知嵌入模块利用知识感知的注意力机制,为用户和物品生成知识加权表征;动态信息共享模块基于神经网络,根据用户物品交互的二部图以及物品侧的知识图谱得到用户/物品热门种子,计算每个用户/物品与用户/物品热门种子的相似度,根据相似度共享用户/物品热门种子的动态表征;将知识加权表征和所述动态表征进行聚合,得到每个用户和物品的最终表征并进行点积获得最后的预测值。本发明将各用户/物品与其相似的热门用户/物品进行动态的信息共享,缓解了用户侧和物品侧的冷启动问题。
-
公开(公告)号:CN114756694A
公开(公告)日:2022-07-15
申请号:CN202210677070.5
申请日:2022-06-16
Applicant: 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) , 平安科技(深圳)有限公司
Abstract: 本发明提供的一种基于知识图谱的推荐系统、推荐方法和相关设备,系统包括:用户历史信息嵌入模块根据用户的历史交互行为生成用户表征;知识感知嵌入模块利用知识感知的注意力机制,为用户和物品生成知识加权表征;动态信息共享模块基于神经网络,根据用户物品交互的二部图以及物品侧的知识图谱得到用户/物品热门种子,计算每个用户/物品与用户/物品热门种子的相似度,根据相似度共享用户/物品热门种子的动态表征;将知识加权表征和所述动态表征进行聚合,得到每个用户和物品的最终表征并进行点积获得最后的预测值。本发明将各用户/物品与其相似的热门用户/物品进行动态的信息共享,缓解了用户侧和物品侧的冷启动问题。
-
公开(公告)号:CN116226662B
公开(公告)日:2024-02-09
申请号:CN202310012741.0
申请日:2023-01-05
Applicant: 哈尔滨工业大学(深圳)
IPC: G06F18/214 , G06N3/04 , G06N3/08
Abstract: 本发明公开了一种多智能体协同强化学习方法、终端及存储介质,方法包括:获取环境参数,构造模拟环境,并根据环境参数以及智能体数目确定学习者智能体;根据任务需求构造对应数量的工作者智能体,并根据任务需求构造对应数量的行动者智能体;其中,每个工作者智能体用于与多个行动者智能体进行交互,每个行动者智能体分别与一个独立的模拟环境交互;获取样本数据,根据样本数据对学习者智能体进行训练,得到训练后的模型参数;通过学习者智能体定期将训练后的模型参数更新到共享内存中,并通过工作者智能体定期从共享内存中更新决策网络的参数,得到强化学习后的策略。本发明提高了多智能体的强化学习过程中的样本利用率及样本数量。
-
-
-
-
-
-
-
-
-