一种基于特征解耦网络的静脉识别方法

    公开(公告)号:CN115457611B

    公开(公告)日:2023-04-21

    申请号:CN202211293367.8

    申请日:2022-10-21

    Abstract: 本发明公开了一种基于特征解耦网络的静脉识别方法,设计高鲁棒性静脉图像分割模型,获取高质量的静脉形状特征二值分割图,构建基于多尺度注意力残差模块的静脉形状纹理特征解耦网络,实现静脉图像纹理和形状特征的自适应解耦,提出权值引导的高判别深度特征学习模块,增强了静脉深度特征表示能力。本发明减少了纹理信息中光照信息对于静脉深度特征表示能力的影响,增强了静脉纹理特征和形状特征的融合效果,提高了静脉识别方法的性能。

    基于自适应动态窗口法的多智能体编队避障方法

    公开(公告)号:CN115903806A

    公开(公告)日:2023-04-04

    申请号:CN202211432749.4

    申请日:2022-11-16

    Abstract: 本发明公开了一种基于自适应动态窗口法的多智能体编队避障方法,构建基于自适应动态窗口法的避障模块和基于领航跟随法的编队控制模块。通过自适应动态窗口法设计避障模块,根据智能体与障碍物距离自动调整目标函数中的速度权值,以自适应环境的动态变化,从而获得智能体的最佳运行速度和合理路径,实现多智能体的自主避障。通过设计编队模块中的控制器实现多智能体的编队控制,根据控制器使跟随者按照指定距离和角度跟随领航者,并在控制器中引入补偿项补偿外部未知扰动,使编队控制更稳定。本发明公开的基于自适应动态窗口法的多智能体编队避障方法,可实现未知环境中多智能体编队控制和自主避障。

    一种带有调节呼吸窗机翼的扑翼机器人

    公开(公告)号:CN113212748B

    公开(公告)日:2022-12-02

    申请号:CN202110465385.9

    申请日:2021-04-28

    Inventor: 王军 李富强

    Abstract: 本发明公开了一种带有调节呼吸窗机翼的扑翼机器人,属于扑翼机器人技术领域,一种带有调节呼吸窗机翼的扑翼机器人,包括扑翼机器人本体,扑翼机器人本体上连接有两个扑翼,扑翼上设有两个呼吸窗机构,呼吸窗盖板上端固定连接也有牵引绳,牵引绳另一端连接有调节组件,当扑翼向上扑动时,空气会对使呼吸窗盖板向下转动,外部的空气会进入到呼吸槽的内部,会减少了空气会扑翼产生的直接阻力,同时在当扑翼向下扑动时,空气不再对扑翼产生向下的阻力,此时弹簧卷轴会自动收缩缠绕牵引绳带动呼吸窗盖板向上转动盖住呼吸槽,呼吸槽内的空气会从出气口向下排出产生浮力,进而使得扑翼机器人本体有更大的升力,保证其飞行使用效果。

    基于模态匹配的连续手语语句识别方法

    公开(公告)号:CN113609922B

    公开(公告)日:2022-05-13

    申请号:CN202110792080.9

    申请日:2021-07-13

    Abstract: 本发明公开了一种基于模态匹配的连续手语语句识别方法,将手语语句的彩色视频和光流图像序列的关键帧和目标词语片段序列作为输入,通过基于模态匹配的连续手语语句识别模型,将手语语句的彩色视频和光流图像序列的关键帧片段序列与语义匹配对齐,得到最终的语义序列。本发明公开了一种基于模态匹配的连续手语语句识别模型,用轻量的特征提取网络,减少其参数量,针对手语数据集进行任务特定性训练,在数据集中样本的标注较少的情况下对连续手语语句进行识别,减少了在传统手语识别方法中对人体姿势信息高度依赖的问题。

    一种基于多模态分层级信息融合的手语词识别方法

    公开(公告)号:CN113297955B

    公开(公告)日:2022-03-18

    申请号:CN202110559367.7

    申请日:2021-05-21

    Abstract: 本发明公开了一种基于多模态分层级信息融合的手语词识别方法,该方法包括:以彩色视频、深度视频和骨骼节点视频三种模态的关键帧序列作为网络输入,构建一个双流I3D网络提取彩色视频和深度视频特征,通过特征拼接融合双模态语义特征,再使用LSTM构建长期时空特征,使用SoftMax进行分类评分;同时使用DST‑GCN网络提取骨骼节点视频的时空特征,再使用SoftMax进行分类评分;最终通过决策级融合方式将两个SoftMax层的预测分数进行融合,得到手语词识别结果。本发明所提出的基于多模态分层级信息融合的手语词识别方法,通过构建分层级融合策略,充分利用了多模态数据互补信息;通过构建DST‑GCN网络,增强了时空图卷积网络时间特征提取能力,进而提高了手语词识别的准确率。

    一种基于IMU的激光雷达三维点云实时运动补偿方法

    公开(公告)号:CN113391300B

    公开(公告)日:2022-02-01

    申请号:CN202110559368.1

    申请日:2021-05-21

    Abstract: 本发明公开了一种基于IMU的激光雷达三维点云实时运动补偿方法,首先,对用于本发明方法实现的激光雷达及IMU进行时间轴同步与空间坐标系统一,并按照时间戳顺序对激光雷达三维点云数据及IMU数据分别进行排序;其次,提出一种基于数据块划分的激光雷达三维点云旋转补偿方法,根据IMU输出激光雷达三维点云数据时序对每帧激光雷达三维点云数据进行数据块划分,根据以上数据块划分思想求得每个数据点相对于帧尾的三轴旋转变换矩阵R,并对激光雷达三维点云数据进行三轴旋转补偿;最后,根据旋转补偿后的点云数据帧估计出点云帧间运动量T,并对点云数据进行平移补偿。与传统方法相比,本方法具有更高的实时性与鲁棒性。

    基于Actor-Critic模型的低曝光静脉图像增强方法

    公开(公告)号:CN113269698B

    公开(公告)日:2022-01-04

    申请号:CN202110560691.0

    申请日:2021-05-21

    Abstract: 本发明公开了一种基于Actor‑Critic模型的低曝光静脉图像增强方法,设计对比度,饱和度,白平衡,曝光和色调曲线函数滤波器,通过Actor‑Critic模型选取最优的一组图像滤波顺序和参数,并利用其对低曝光静脉图像进行滤波操作,输出每个滤波操作对应图像并提取细节信息,叠加到最后一层滤波器处理后的图像中,最终输出增强的静脉图像。本发明公开的基于Actor‑Critic的低曝光静脉图像增强模型,可以自动选择图像编辑滤波顺序和参数,实现低曝光静脉图像光照信息的恢复和对比度的增强,并且通过提取滤波处理过程中各滤波器输出图像的互补静脉细节信息,解决了全局图像处理造成的静脉细节丢失的问题,达到低曝光静脉图像增强的效果。

    基于注意力的连续手语语句识别方法

    公开(公告)号:CN113609923A

    公开(公告)日:2021-11-05

    申请号:CN202110800098.9

    申请日:2021-07-13

    Abstract: 本发明公开了一种基于注意力的连续手语语句识别方法,首先,分别提取彩色视频和光流视频模态的关键帧手语视频的关键帧序列的时空特征,将提取到的时空特征输入构建的基于注意力的连续手语语句识别模型,该模型本质上是一个序列到序列模型:通过基于注意力的双模态编码网络得到两个模态的融合特征序列,并输入基于连接时序分类的解码网络,得到最终的语义序列。本发明通过利用序列到序列模型将手语序列转换到另一个语言序列,解决输出长度不确定的问题,改善输入与输出序列的不规则对齐问题。同时,在完成具有冗余信息的复杂任务时,使用注意力模型将注意力聚焦于视频特征的重要区域,对连续手语语句识别效果有显著的提升。

    一种激光雷达与相机联合标定方法

    公开(公告)号:CN112669393B

    公开(公告)日:2021-10-22

    申请号:CN202011632288.6

    申请日:2020-12-31

    Abstract: 本发明公开了一种激光雷达与相机联合标定方法,所使用的激光雷达扫描方式为非重复扫描,即激光雷达每次扫描轨迹都不相同,静止采集数秒,视野内点云覆盖率趋近100%。本发明根据此种激光雷达非重复扫描特点,将自制大型棋盘格标定板依次放置于激光雷达与相机重合视野中不同位置,相机采集一帧图像的同时激光雷达采集较长时间三维点云数据,将得到的三维点云数据根据点云强度转化为二维归一化灰度图,再对归一化灰度图及相机图像进行角点检测,得到对应的二维灰度图与相机图像角点对,然后根据二维灰度图中的角点回溯找到精确的三维点云角点坐标,最终根据对应的三维点云角点与相机图像角点坐标得到联合标定结果,与传统方法相比,具有更高的精度。

Patent Agency Ranking