基于计算机视觉的手势输入法构建方法及系统

    公开(公告)号:CN102508547A

    公开(公告)日:2012-06-20

    申请号:CN201110345914.8

    申请日:2011-11-04

    Abstract: 本发明涉及一种基于计算机视觉的手势输入法的构建方法,步骤如下:采集手势、视频处理、手势分析、手势识别、构建手势输入法。利用异步缓冲模型对手势帧进行聚类,得到关键手势帧,只将关键手势帧进行后续的手势分析和手势识别,相对于以往的分析和识别每一帧手势的系统,有效提高了系统响应实时性。另外,本发明将手势识别与输入法的结合应用,是人机交互史上的创新。

    一种无人机群体联合侦查策略生成方法及终端

    公开(公告)号:CN116820121A

    公开(公告)日:2023-09-29

    申请号:CN202310544444.0

    申请日:2023-05-15

    Abstract: 本发明公开了一种无人机群体联合侦查策略生成方法及终端,方法包括:对待侦察区域的地图进行网格划分,并构建所有网格的概率信息集合;根据信息熵理论计算无人机群侦测形成的概率矩阵;根据历史启发算法计算区域地图网格的权重矩阵;根据概率矩阵对应的信息熵与权重矩阵中各权重的乘积计算得到对应的加权信息熵;选取加权信息熵满足预设条件的多个位置进行感知,通过调集可控数量的无人机,对带有侦查优先级的多个位置展开侦查;其中,多个位置的数量适配无人机群的当前规模。本发明可以做出满足全局最优的合理侦查决策,从而使无人机群体协同侦察更加具有自主性、灵活性、准确性、高效性,提高了多无人机协同执行任务的效率。

    面向联邦学习数据投毒攻击的防御方法及装置

    公开(公告)号:CN113965359B

    公开(公告)日:2023-08-04

    申请号:CN202111152694.7

    申请日:2021-09-29

    Abstract: 本发明公开了一种面向联邦学习数据投毒攻击的防御方法及装置,方法包括:每个客户端使用本地数据训练模型参数;每个客户端将本地模型参数上传给服务器,服务器接收到所有的模型参数;服务器从中计算出一个用于比较的参考基准u,则对于任意的两个局部模型wa和wb,计算它们相对于参考基准u的相似度;采用内部投票的方法判断一个局部模型是否为恶意;根据每个局部模型所得的票数,计算每个局部模型的可信度;基于可信度的模型加权聚合,得到最终的全局模型,基于最终的全局模型实现数据投毒攻击的防御。本发明中,恶意客户端的模型会被赋予较低权重,在加权聚合时削弱它对全局模型的影响,从而实现针对数据投毒攻击的防御。

    基于梯度混洗的信息推荐方法及相关设备

    公开(公告)号:CN116383504A

    公开(公告)日:2023-07-04

    申请号:CN202310368921.2

    申请日:2023-04-03

    Abstract: 本发明公开了一种基于梯度混洗的信息推荐方法及相关设备,所述方法包括:获取目标对象的历史评分项目的参数;获取多个待推荐项目,根据所述历史评分项目的参数、多个所述待推荐项目和已训练的信息推荐模型获取各所述待推荐项目对应的推荐分数,其中,所述已训练的信息推荐模型在训练过程中各个训练客户端基于预设的梯度混洗方式对训练梯度参数进行梯度混洗,并上传至中心服务器进行训练;根据各所述待推荐项目对应的推荐分数从多个所述待推荐项目中选择获取目标推荐项目,并向所述目标对象推送所述目标推荐项目。本发明有利于在推荐数据的过程中提高用户数据的安全性,从而保护用户信息数据的隐私。

    基于深度回归抽象技术的虚拟遗憾策略求解方法及设备

    公开(公告)号:CN116212356A

    公开(公告)日:2023-06-06

    申请号:CN202310072057.1

    申请日:2023-01-12

    Abstract: 本发明公开了一种基于深度回归抽象技术的虚拟遗憾策略求解方法及设备,所述方法包括:构建回归器网络,将回归器网络进行初始化并遍历博弈树收集历史数据;根据蓄水池采样方法对历史数据进行采样得到训练集,并基于训练集的数据对回归器网络进行训练;当回归器网络的训练次数达到最大训练轮次时停止训练,得到目标回归器网络,并获取深度回归虚拟遗憾最小化算法的到达概率,目标回归器网络根据到达概率计算得到平均策略。本发明使用神经网络作为回归器生成虚拟遗憾最小化算法迭代所需的遗憾值,减少信息抽象的影响,并使得算法无需存储大型表格,减少了算法的存储资源开销,同时利用神经网络的拟合能力也提升了算法的通用性与泛化性。

    一种细粒度专家行为模仿学习方法、装置、介质及终端

    公开(公告)号:CN115688858A

    公开(公告)日:2023-02-03

    申请号:CN202211285500.5

    申请日:2022-10-20

    Abstract: 本发明公开了一种细粒度专家行为模仿学习方法、装置、介质及终端,方法包括,获取智能体的当前环境状态信息,将当前环境状态信息输入到预设预测网络模型中,以得到预测信息,根据预测信息控制智能体执行相应动作,采集任务完成情况信息和当前动作的状态信息;根据动作的状态信息计算单次奖励值,根据任务完成情况信息计算任务奖励值;根据单次奖励值及任务奖励值训练预设预测网络模型,将任务奖励值和每局若干单次奖励值相加,得到总奖励值,当总奖励值大于阈值时,完成对预设预测网络模型的训练并将输出的策略返回,上述方法降低了训练难度、提高了训练效率,无需采集大量专家数据即可在高维状态、动作空间中学习到接近专家行为模式的策略。

    基于事后回顾和渐进式扩展的持续强化学习非完全信息博弈方法及装置

    公开(公告)号:CN114048834B

    公开(公告)日:2023-01-17

    申请号:CN202111303694.2

    申请日:2021-11-05

    Abstract: 本发明公开了一种基于事后回顾和渐进式扩展的持续强化学习非完全信息博弈方法及装置,包括下述步骤:获取非完全博弈环境,确定任务目标;构建第一神经网络和基于未来值预测的强化学习方法;构建事后经验回顾池;对第一神经网络进行训练,直至第一神经网络收敛;构建渐进式神经网络,实现网络模型的渐进式扩展;选择下一个任务作为任务目标,利用基于未来值预测的强化学习方法持续训练,直至所有的任务都训练完成。本发明通过使用非完全信息博弈场景中丰富的智能体状态变化作为监督信号,解决该环境下的奖励稀疏问题,同时引入持续学习框架渐进式神经网络对未来值预测网络结构进行动态扩展,解决了在该环境下的多任务场景中的灾难性遗忘的问题。

    多智能体信息融合方法、装置、电子设备及可读存储介质

    公开(公告)号:CN114139637B

    公开(公告)日:2022-11-04

    申请号:CN202111470623.1

    申请日:2021-12-03

    Abstract: 本申请公开了一种多智能体信息融合方法、装置、电子设备及可读存储介质。其中,方法包括构建操作预测网络模型和门控注意力机制模型,门控注意力机制模型根据不同来源信息以交互过程中学习的比例进行融合,且各智能体基于自身数据和通信信息融合结果共同确定是否接收通信信息融合结果。将多智能体应用模拟环境的状态信息输入至操作预测网络模型,得到各智能体的预测动作;根据多智能体应用模拟环境基于各智能体的预测动作信息输出的各预测动作得分和下一时刻的状态信息、每个智能体的价值评估信息,基于门控注意力机制模型的强化学习算法更新操作预测网络模型,循环训练操作预测网络模型直至收敛。本申请提升了多智能体信息融合效果。

Patent Agency Ranking