一种基于人工情感的服务机器人局部路径规划方法

    公开(公告)号:CN114167856B

    公开(公告)日:2023-07-18

    申请号:CN202111306004.9

    申请日:2021-11-05

    Abstract: 本发明公开了一种基于人工情感的服务机器人局部路径规划方法。该方法包括:采用非全向移动模型,推算机器人在下一时段内的位移轨迹,然后计算采样速度区间,确定预测轨迹。将采集到的机器人周边环境因素量化建模,映射至人工情感的亲密度,恐惧度,愉悦度,喜悦度四个维度。设计合理的适应度函数fitness,评价PSO算法解的品质,在其适应度函数值最小的时候,得到优化后人工情感函数值的权重。再次对多条预测轨迹的期望值进行计算,期待值E(li)最高的预测轨迹会被决策层选择,将其作为下一帧的位姿。通讯机制将控制信息发送给控制器,控制器执行机器人在决策层所选择的动作,最终实现以人工情感为核心的自主导航过程。

    一种基于人工情感的服务机器人局部路径规划方法

    公开(公告)号:CN114167856A

    公开(公告)日:2022-03-11

    申请号:CN202111306004.9

    申请日:2021-11-05

    Abstract: 本发明公开了一种基于人工情感的服务机器人局部路径规划方法。该方法包括:采用非全向移动模型,推算机器人在下一时段内的位移轨迹,然后计算采样速度区间,确定预测轨迹。将采集到的机器人周边环境因素量化建模,映射至人工情感的亲密度,恐惧度,愉悦度,喜悦度四个维度。设计合理的适应度函数fitness,评价PSO算法解的品质,在其适应度函数值最小的时候,得到优化后人工情感函数值的权重。再次对多条预测轨迹的期望值进行计算,期待值E(li)最高的预测轨迹会被决策层选择,将其作为下一帧的位姿。通讯机制将控制信息发送给控制器,控制器执行机器人在决策层所选择的动作,最终实现以人工情感为核心的自主导航过程。

    一种移动机器人的目标搜索观测点自动生成方法

    公开(公告)号:CN112711256A

    公开(公告)日:2021-04-27

    申请号:CN202011556186.0

    申请日:2020-12-23

    Abstract: 本发明公开了一种移动机器人的目标搜索观测点自动生成方法,通过RRT算法生成随机树tree并根据每一个树节点的观测区域对于整个地图可视化的贡献值以特殊方式进行筛选,自动生成能够观测到整个地图环境可行区域的观测点,可以满足自主移动机器人目标搜索任务需求,可用于自主移动机器人目标搜索任务规划。该发明能够针对移动机器人的工作环境,自动的生成用于移动机器人目标搜索及相关路径规划所用到的观测点,该方法解决了观测点分析选取的问题,很大程度的提高了移动机器人目标搜索中的自主性。

    一种基于情感意图驱动的人机交互方法

    公开(公告)号:CN114139673B

    公开(公告)日:2024-11-22

    申请号:CN202111313607.1

    申请日:2021-11-08

    Abstract: 本发明公开了一种基于情感意图驱动的人机交互方法。针对现有的人机交互过程中,服务机器人缺少智能性、主动性,处于被动地位,提出了一种新的交互策略,具体包括(1)数据采集与增强;(2)使用迁移学习训练ResNet‑18作为特征提取网络、评估网络和目标网络;(3)使用增强后数据集训练特征提取网络,并把除FC层的网络参数迁移到评估网络和目标网络中;(4)使用摄像头采集实时用户图像,再输入到DQN网络中进行评估学习。通过用户对机器人所做动作的表情反馈设置奖励,并通过梯度下降更新评估网络的参数。本方法可快速收敛DQN网络,机器人通过用户的表情推断用户的情绪意图,做出交互动作,提高机器人的主动性、智能性。

    一种移动机器人的目标搜索观测点自动生成方法

    公开(公告)号:CN112711256B

    公开(公告)日:2022-05-20

    申请号:CN202011556186.0

    申请日:2020-12-23

    Abstract: 本发明公开了一种移动机器人的目标搜索观测点自动生成方法,通过RRT算法生成随机树tree并根据每一个树节点的观测区域对于整个地图可视化的贡献值以特殊方式进行筛选,自动生成能够观测到整个地图环境可行区域的观测点,可以满足自主移动机器人目标搜索任务需求,可用于自主移动机器人目标搜索任务规划。该发明能够针对移动机器人的工作环境,自动的生成用于移动机器人目标搜索及相关路径规划所用到的观测点,该方法解决了观测点分析选取的问题,很大程度的提高了移动机器人目标搜索中的自主性。

    一种基于多特征提取与融合的头势识别算法

    公开(公告)号:CN112712103A

    公开(公告)日:2021-04-27

    申请号:CN202011378619.8

    申请日:2020-12-01

    Abstract: 本发明公开了一种基于多特征提取与融合的头势识别算法,包括:利用RGB相机采集的视频数据,并进行数据增强,得到训练集;使用稠密光流算法从训练集中得到稠密光流图片序列,将训练集的原图片序列和提取的稠密光流图片序列分别输入RGB特征提取3DInceptionV2通道和光流特征提取3DInceptionV2通道,并进行特征交叉融合;通过3DInception模块提取融合特征的高维动作特征;通过迭代训练神经网络参数,得到3DInceptionV2网络模型参数;用RGB相机采集待识别的RGB视频数据,得到待测集,通过稠密光流算法获取稠密光流图片序列,待测集图片序列和稠密光流图片序列数据并行输入加载模型参数的双流3DInceptionV2网络中,获得对应的头势识别结果。本发明拥有更好的便携性、易用性且易于功能扩展。

    一种基于双目视觉的遮挡目标识别与定位方法

    公开(公告)号:CN112668452A

    公开(公告)日:2021-04-16

    申请号:CN202011552892.8

    申请日:2020-12-24

    Abstract: 本发明公开了一种基于双目视觉的遮挡目标识别与定位方法,包括以下步骤:获取待检测图像和模板图像,进行特征点检测,并确定特征点主方向;构造特征描述子,将模板图像特征点与待检测图像特征点根据特征描述子进行若干次筛选与匹配,对待检测图像中目标物的位置进行模板复原;从预先设立的模板库中调取相对应的期望定位模型并进行预定位点匹配,选取期望定位点;利用三角测量法对得到的期望定位点进行双目定位,得到三维坐标。本发明采用上述步骤对被识别的物体未遮挡区域进行定位,然后利用三角测量法进行双目定位以获取物体的三维坐标,本发明在复杂环境下具有较好的鲁棒性,对被遮挡物体能够实现精确定位。

    一种基于多特征提取与融合的头势识别算法

    公开(公告)号:CN112712103B

    公开(公告)日:2024-02-06

    申请号:CN202011378619.8

    申请日:2020-12-01

    Abstract: 本发明公开了一种基于多特征提取与融合的头势识别算法,包括:利用RGB相机采集的视频数据,并进行数据增强,得到训练集;使用稠密光流算法从训练集中得到稠密光流图片序列,将训练集的原图片序列和提取的稠密光流图片序列分别输入RGB特征提取3DInceptionV2通道和光流特征提取3DInceptionV2通道,并进行特征交叉融合;通过3DInception模块提取融合特征的高维动作特征;通过迭代训练神经网络参数,得到3DInceptionV2网络模型参数;用RGB相机采集待识别的RGB视频数据,得到待测集,通过稠密光流算法获取稠密光流图片序列,待测集图片序列和稠密光流图片序列数据并行输入加载模型参数的双流3DInceptionV2网络中,获得对应的头势识别结果。本发明拥有更好的便携性、易用性且易于功能扩展。

    一种基于情感意图驱动的人机交互方法

    公开(公告)号:CN114139673A

    公开(公告)日:2022-03-04

    申请号:CN202111313607.1

    申请日:2021-11-08

    Abstract: 本发明公开了一种基于情感意图驱动的人机交互方法。针对现有的人机交互过程中,服务机器人缺少智能性、主动性,处于被动地位,提出了一种新的交互策略,具体包括(1)数据采集与增强;(2)使用迁移学习训练ResNet‑18作为特征提取网络、评估网络和目标网络;(3)使用增强后数据集训练特征提取网络,并把除FC层的网络参数迁移到评估网络和目标网络中;(4)使用摄像头采集实时用户图像,再输入到DQN网络中进行评估学习。通过用户对机器人所做动作的表情反馈设置奖励,并通过梯度下降更新评估网络的参数。本方法可快速收敛DQN网络,机器人通过用户的表情推断用户的情绪意图,做出交互动作,提高机器人的主动性、智能性。

Patent Agency Ranking