一种基于图像处理的仿生手控制方法、系统和设备

    公开(公告)号:CN116766213A

    公开(公告)日:2023-09-19

    申请号:CN202311068254.2

    申请日:2023-08-24

    Applicant: 烟台大学

    Abstract: 本发明涉及图像处理技术领域,具体为一种基于图像处理的仿生手控制方法、系统和设备,该控制方法通过获取手部图像中的关节信息,确定关节区域,得到的初始锚点区域集图经特征处理、方差筛选、回归检测和筛选处理后,获得当前待测手部图的最优锚点集;当前待测手部图的最优锚点信息与相邻帧手部图的最优锚点信息,经加权平均处理后,得到当前待测手部图的关键手部节点集;通过关键手部节点集的坐标信息,确定手势识别结果;将手势识别结果通信传输至仿生手,仿生手并给出相应交互结果,实现了仿生手的准确、灵活控制;且在大量图像信息中筛选出关键信息进行手势识别结果的计算,在保证控制结果准确度的基础上,提高计算效率。

    异质图神经网络属性补全方法
    12.
    发明公开

    公开(公告)号:CN115587626A

    公开(公告)日:2023-01-10

    申请号:CN202211269371.0

    申请日:2022-10-18

    Applicant: 烟台大学

    Abstract: 本发明公开了一种异质图神经网络属性补全方法,包括使用异质信息网络的嵌入方法对异质图网络进行节点嵌入,以形成拓扑网络结构;以拓扑结构为指导,通过残差注意力机制来聚合目标节点的邻居属性,对缺失属性的目标节点进行属性补全操作;将该方法与其他的异质网络模型相结合,计算模型的损失函数,并进行优化,达到一个端到端的效果。本发明可以与不同的异质图神经网络模型结合,并在真实的数据集上进行实验,针对属性缺失和训练过拟合问题,得到了更好的解决效果,明显的提高了预测的性能。

    一种基于多模态情感识别的协作机器人控制方法及系统

    公开(公告)号:CN118238151A

    公开(公告)日:2024-06-25

    申请号:CN202410666297.9

    申请日:2024-05-28

    Applicant: 烟台大学

    Abstract: 本发明涉及情感识别领域,尤其是涉及一种基于多模态情感识别的协作机器人控制方法及系统,包括以下步骤:S1.采样语音数据和视频数据,分别构建单模态数据,对所述单模态数据进行标注和归一化处理,得到多模态情感数据集;S2.构建多模态情感识别网络模型,所述多模态情感模型包括构建自顶向下融合方式、单模态特征提取和多模态特征融合;S3.利用所述多模态情感数据集对多模态情感识别网络模型进行训练;S4.构建协作机器人控制框架,利用所述协作机器人控制框架和训练好的情感识别网络模型构建协作机器人控制系统。本发明通过基于多模态情感识别的协作机器人实现了对人类情感的高效和精准识别,同时提高了操作人员的工作效率。

    一种基于图像处理的仿生手控制方法、系统和设备

    公开(公告)号:CN116766213B

    公开(公告)日:2023-11-03

    申请号:CN202311068254.2

    申请日:2023-08-24

    Applicant: 烟台大学

    Abstract: 本发明涉及图像处理技术领域,具体为一种基于图像处理的仿生手控制方法、系统和设备,该控制方法通过获取手部图像中的关节信息,确定关节区域,得到的初始锚点区域集图经特征处理、方差筛选、回归检测和筛选处理后,获得当前待测手部图的最优锚点集;当前待测手部图的最优锚点信息与相邻帧手部图的最优锚点信息,经加权平均处理后,得到当前待测手部图的关键手部节点集;通过关键手部节点集的坐标信息,确定手势识别结果;将手势识别结果通信传输至仿生手,仿生手并给出相应交互结果,实现了仿生手的准确、灵活控制;且在大量图像信息中筛选出关键信息进行手势识别结果的计算,在保证控制结果准确度的基础上,提高计算效率。

    一种基于卷积神经网络的机器人姿态估计方法及系统

    公开(公告)号:CN118893636A

    公开(公告)日:2024-11-05

    申请号:CN202411396563.7

    申请日:2024-10-09

    Applicant: 烟台大学

    Abstract: 本发明涉及神经网络技术领域,尤其是涉及一种基于卷积神经网络的机器人姿态估计方法及系统。方法,包括获取工业机器人姿态信息数据;对获取的工业机器人姿态信息数据进行自动化标注,得到数据集;对数据集进行预处理;利用预处理后的数据集训练卷积神经网络模型;利用训练好的卷积神经网络模型对机器人进行姿态估计。本发明通过自动化标注与手工校准相结合的方法,生成高精度的工业机器人臂姿态数据集,克服了传统方法中手工标注耗时和不精确的问题。

    一种基于多模态多任务学习的机器人分类检测方法及系统

    公开(公告)号:CN118506107B

    公开(公告)日:2024-09-27

    申请号:CN202410954465.4

    申请日:2024-07-17

    Applicant: 烟台大学

    Abstract: 本发明涉及机器人技术领域,尤其是涉及一种基于多模态多任务学习的机器人分类检测方法及系统,包括S1.构建多模态数据集并进行数据预处理;S2.将语义信息数据集和图像数据集进行对齐;S3.构建多模态目标检测模型,将多模态数据集输入模型进行多任务学习,对多模态数据集进行特征提取,并将提取后的视觉图像特征和语义信息特征进行特征融合,利用核心语义注意力机制计算机器人的视觉图像特征的加权和,通过优化加权和完成对模型进行训练。本发明提出了一种基于多模态多任务学习的机器人分类检测方法,融合机器人的图像与语义信息,提升检测时文本与图像的特征交互性,使检测模型具备更高的准确性与鲁棒性。

    一种基于多模态情感识别的协作机器人控制方法及系统

    公开(公告)号:CN118238151B

    公开(公告)日:2024-07-30

    申请号:CN202410666297.9

    申请日:2024-05-28

    Applicant: 烟台大学

    Abstract: 本发明涉及情感识别领域,尤其是涉及一种基于多模态情感识别的协作机器人控制方法及系统,包括以下步骤:S1.采样语音数据和视频数据,分别构建单模态数据,对所述单模态数据进行标注和归一化处理,得到多模态情感数据集;S2.构建多模态情感识别网络模型,所述多模态情感模型包括构建自顶向下融合方式、单模态特征提取和多模态特征融合;S3.利用所述多模态情感数据集对多模态情感识别网络模型进行训练;S4.构建协作机器人控制框架,利用所述协作机器人控制框架和训练好的情感识别网络模型构建协作机器人控制系统。本发明通过基于多模态情感识别的协作机器人实现了对人类情感的高效和精准识别,同时提高了操作人员的工作效率。

    一种基于双手交互姿态估计的仿生机械手控制方法及系统

    公开(公告)号:CN118305818A

    公开(公告)日:2024-07-09

    申请号:CN202410733032.6

    申请日:2024-06-07

    Applicant: 烟台大学

    Abstract: 本发明涉及计算机视觉技术领域,尤其是涉及一种基于双手交互姿态估计的仿生机械手控制方法及系统。所述方法,包括获取图像数据集,包括获取手部姿态和形状的数据集,并对获取的数据集进行整合;基于获取的手部姿态数据集进行手部姿态估计,包括构建并利用神经网络模型进行手部姿态的特征提取;利用轻量级神经网络模型对手部姿态数据集中手部图像进行特征分析,得到双手的姿态信息;根据特征分析结果进行轻量级神经网络模型训练;通过双手的姿态信息进行姿态对齐和映射,基于姿态对齐和映射生成仿生机械手的控制信息。本发明通过采用轻量级神经网络架构,实现了对两只手之间相对位置的准确预测,使机械手在执行任务时更加准确和可靠。

Patent Agency Ranking