-
公开(公告)号:CN118036694B
公开(公告)日:2024-09-10
申请号:CN202410275839.X
申请日:2024-03-12
申请人: 腾讯科技(深圳)有限公司
IPC分类号: G06N3/08 , G06N3/092 , G06N3/096 , A63F13/67 , A63F13/822
摘要: 本申请公开了一种训练智能体的方法、装置和设备及计算机存储介质,应用于计算机技术领域,该方法包括:获取预先设置的至少一种角色行为风格,其中,角色行为风格用于指示智能体在制定执行动作决策时的策略倾向;基于至少一种角色行为风格,为待训练智能体配置相应的行为风格信息,行为风格信息包含:待训练智能体在不同环境条件下针对各预设动作的执行倾向概率;基于行为风格信息,从预设的至少一种奖励信息中,获取与行为风格信息对应的目标奖励信息,目标奖励信息表征:具有行为风格信息的待训练智能体在不同环境条件下,执行各预设动作时对应的奖励权重;基于目标奖励信息,对待训练智能体进行多轮迭代训练,获取相应的目标智能体。
-
公开(公告)号:CN117883788B
公开(公告)日:2024-06-04
申请号:CN202410293574.6
申请日:2024-03-14
申请人: 腾讯科技(深圳)有限公司
IPC分类号: A63F13/57
摘要: 本申请提供一种智能体训练方法、游戏对战方法、装置及电子设备,涉及人工智能、网络游戏技术领域。通过初始智能体,在目标游戏的至少一局游戏中针对游戏角色执行至少一次控制操作,每次控制操用于调控初始智能体基于样本游戏事件控制游戏角色进行游戏;每次控制操作时,可通过初始智能体,获取游戏角色在该次控制操作对应的目标事件的事件元组特征,并基于该事件元组特征以及游戏角色的游戏状态特征,预测动作概率分布和状态价值,基于动作概率分布控制游戏角色执行游戏动作;并基于各次控制操作对应的执行结果和状态价值对该初始智能体进行迭代训练,得到智能体。使得智能体持续优化学习游戏竞技能力和完成事件的能力,提高智能体的可控性。
-
公开(公告)号:CN116992272A
公开(公告)日:2023-11-03
申请号:CN202211313602.3
申请日:2022-10-25
申请人: 腾讯科技(深圳)有限公司
IPC分类号: G06F18/2135 , G06F18/23 , G06F18/24 , G06Q10/063 , G06N3/088 , G06N3/044 , G06N3/0442 , G06N3/0455
摘要: 本申请提供一种数据处理方法、装置、设备及存储介质,可应用于云技术、大数据、人工智能、智慧交通等场景。该方法包括:使用N种不同的数据处理算法分别对目标数据进行处理,得到目标数据在每一种数据处理算法下的处理结果;针对N种数据处理算法中的第i种数据处理算法,基于第i种数据处理算法对应的处理结果和目标数据,确定第i种数据处理算法分别在M种评价方式下的评价分数;基于第i种数据处理算法分别在M种评价方式下的评价分数,确定第i种数据处理算法的联合评价分数;基于联合评价分数,从N种数据处理算法对应的处理结果中,可以准确确定出目标数据的目标处理结果,进而提高了数据处理的效果。
-
公开(公告)号:CN116821693B
公开(公告)日:2023-11-03
申请号:CN202311094973.1
申请日:2023-08-29
申请人: 腾讯科技(深圳)有限公司
IPC分类号: G06F18/214 , A63F13/52 , A63F13/55 , G06N20/00
摘要: 本申请提供了一种虚拟场景的模型训练方法、装置、电子设备和存储介质;方法包括:获取虚拟场景中的场景数据和第一模型,第一模型是基于真实的交互数据预训练得到的机器学习模型,第二模型是待训练的机器学习模型;基于场景数据,调用第一模型和协作模式的第二模型进行多次的模拟对局,得到每次模拟对局的第一对局数据;基于第一对局数据,调用第二模型确定第一模型对应的实际奖励指标和期望奖励指标;基于实际奖励指标和所述期望奖励指标从所述第一对局数据中筛选出训练样本集合;基于训练样本集合训练第二模型。通过本申请,能够提升人工智能控制的虚拟对象与真实玩家的虚拟对象之间的协作性。
-
公开(公告)号:CN116726500B
公开(公告)日:2023-11-03
申请号:CN202310993336.1
申请日:2023-08-09
申请人: 腾讯科技(深圳)有限公司
IPC分类号: A63F13/57 , A63F13/52 , A63F13/847
摘要: 本申请涉及人工智能技术领域,尤其涉及一种虚拟角色的控制方法、装置、电子设备和存储介质。其中,方法包括:对非玩家虚拟角色及其待协作的玩家虚拟角色,在当前的游戏状态信息进行特征提取,获得非玩家虚拟角色的第一状态特征和玩家虚拟角色的第二状态特征;基于第一状态特征获得相应的预测获胜概率;若预测获胜概率及非玩家虚拟角色与玩家虚拟角色间的距离满足预设协作条件,则根据基于第一状态特征和第二状态特征获得的状态融合特征,确定非玩家虚拟角色待执行的预测目标动作,并控制非玩家虚拟角色执行预测目标动作,以协作玩家虚拟角色。本申请结合玩家虚拟角色和非玩家虚拟角色的当前游戏状态进行动作预测,提高控制准确性和人机交互效率。
-
公开(公告)号:CN116772886B
公开(公告)日:2023-10-20
申请号:CN202311036784.9
申请日:2023-08-17
申请人: 腾讯科技(深圳)有限公司
IPC分类号: G01C21/34 , G01C21/36 , G06F3/04815 , A63F13/56 , A63F13/52 , A63F13/822
摘要: 本申请公开了一种虚拟场景中虚拟角色的导航方法、装置、设备及存储介质,本申请实施例可应用于交通或地图领域。包括:获取虚拟角色的角色特征,以及虚拟角色在虚拟环境中所处位置的导航特征,导航特征包括环境感知特征以及导航点特征,环境感知特征包含至少两个维度的二维环境特征,至少两个维度的二维环境特征的组合用于表征虚拟角色所处位置的三维环境;将角色特征以及导航特征输入导航模型,得到导航模型输出的候选动作的动作执行概率;基于动作执行概率从候选动作中确定出目标动作,并基于目标动作控制虚拟角色在虚拟环境中移动。
-
公开(公告)号:CN111437608B
公开(公告)日:2023-09-08
申请号:CN202010212795.8
申请日:2020-03-24
申请人: 腾讯科技(深圳)有限公司
IPC分类号: A63F13/67 , A63F13/822 , G06N3/0442 , G06N3/0455 , G06N3/0475 , G06N3/048 , G06N3/084
摘要: 本申请提供了一种基于人工智能的游戏对局方法、装置、设备及存储介质;所述方法包括:响应于接收到的加入游戏对局的操作指令,获取在所述游戏对局中所有参与者的游戏对局数据流;通过训练好的神经网络模型对所述游戏对局数据流进行预测操作,得到预测结果,其中,所述训练好的神经网络模型至少包括自注意力编码模块;基于所述预测结果确定目标游戏策略;将所述目标游戏策略发送至服务器。如此,能够提高游戏策略的准确性。
-
公开(公告)号:CN115804953A
公开(公告)日:2023-03-17
申请号:CN202111603123.0
申请日:2021-12-24
申请人: 腾讯科技(深圳)有限公司
IPC分类号: A63F13/55 , A63F13/822 , G06F18/214 , G06N3/08
摘要: 本申请涉及人工智能技术领域,提供了一种多人对战游戏的对战策略模型训练方法、装置、计算机设备、存储介质和计算机程序产品。方法包括:针对每一虚拟对象阵容,从虚拟对象阵容对应的对战数据中获取各历史状态,确定每一历史状态各自对应的游戏目标,并对战策略类型,基于历史状态、对战策略类型以及,训练得到游戏目标预测模型,针对基于初始对战策略模型得到的每一虚拟对象阵容的每一对战动作,将相应对战动作所对应的响应状态以及相应虚拟对象阵容对应的对战策略类型输入游戏目标预测模型,得到预测游戏目标,基于每一预测游戏目标各自对应的奖励数据,对初始对战策略模型进行训练,得到对战策略模型,能有效提高了虚拟对象阵容的对抗能力。
-
公开(公告)号:CN110064205B
公开(公告)日:2023-02-17
申请号:CN201910335020.7
申请日:2019-04-24
申请人: 腾讯科技(深圳)有限公司
摘要: 用于游戏的数据处理方法、设备和介质。所述用于游戏的数据处理方法包括:提取当前帧游戏数据的游戏特征,并将其输入到联合模型,其中所述联合模型包括用于执行微观操作预测的微观操作预测子模型和用于执行宏观移动趋势预测的宏观移动趋势预测子模型;至少基于输入的游戏特征,通过宏观移动趋势预测子模型来预测特定游戏角色在当前帧或后续帧游戏数据中的宏观移动趋势;以及基于输入的游戏特征和预测出的宏观移动趋势,通过微观操作预测子模型来预测所述特定游戏角色在当前帧或后续帧游戏数据中将要执行的微观操作。
-
公开(公告)号:CN114307166A
公开(公告)日:2022-04-12
申请号:CN202111393207.6
申请日:2021-11-23
申请人: 腾讯科技(深圳)有限公司
摘要: 本申请实施例提供一种游戏对战模型训练方法、游戏对战方法及相关装置,能够将从游戏对战模型集合中筛选出的目标游戏对战模型进行游戏对战,从而生成对战状态信息,并基于对战状态信息实现对游戏对战模型进行训练,从而可以将训练得到训练后游戏对战模型应用在游戏对战中,如此可以采用训练后游戏对战模型对敌方战队的位置进行预测,使得训练后游戏对战模型可以观测到近似游戏全局状态的游戏局面,从而增强训练后游戏对战模型对游戏决策的准确性,避免游戏局部状态带来的决策偏差。
-
-
-
-
-
-
-
-
-