一种空地多视角下的多机器人协同定位及融合建图方法

    公开(公告)号:CN109579843B

    公开(公告)日:2020-10-27

    申请号:CN201811444561.5

    申请日:2018-11-29

    Abstract: 本发明公开了一种空地多视角下的多机器人协同定位及融合建图方法,使用空中、地面多视角完整覆盖探测场景,融合由空中机器人、地面机器人采集的场景图像数据,通过视觉约束定位各机器人并还原三维场景信息。通过附着于机器人上的特定视觉特征,优化建图和定位系统三维点云地图和机器人六自由度位姿。基于视觉特征的位姿优化、地图融合算法显著地提高了的重建和定位精度,修正了地图尺度,使得各机器人的局部地图能够在多个异构机器人间共享,提高了三维重建的覆盖率,为任务规划、灾难环境搜救、军事反恐等情景快速提供可靠的环境信息。

    一种基于时序分级与重组机制的人体运动预测方法

    公开(公告)号:CN115170613A

    公开(公告)日:2022-10-11

    申请号:CN202210833048.5

    申请日:2022-07-14

    Abstract: 本发明公开了一种基于时序分级与重组机制的人体运动预测方法,首先采用时序分级模块完成时序特征由低阶至高阶的分层,得到低阶、中阶、高阶的时序特征,然后将低阶、中阶、高阶的时序特征输入时序重组模块,在所述时序重组模块完成时序特征的重组,得到重组时序特征,最后将重组时序特征,依次通过一个增强图注意力与时序卷积单元、二维卷积、维度变换、线性变换操作,得到后处理特征,对原始时序人体骨架数据进行切割处理得到残差,将后处理结果与残差进行元素相加得到最终的预测结果。本发明能显著减少由于人体姿态的时空不连续性造成的误差累积,有效避免对卷积核尺寸大小的依赖。

    一种基于增强图注意力与时间卷积网络的运动预测方法

    公开(公告)号:CN114240999A

    公开(公告)日:2022-03-25

    申请号:CN202111373469.6

    申请日:2021-11-19

    Abstract: 本发明公开了一种基于增强图注意力与时间卷积网络的运动预测方法,该方法通过聚合时空信息来估计人体未来的运动姿态,构建了增强的图注意力模块与重构的TCN模块,利用输入特征的通道间关系生成通道注意力图,并基于通道注意力图,分别使用局部和全局图注意力卷积网络,提取局部对称、局部连接和全局语义信息。重构的TCN可以有效地捕获复杂的、高动态的时间信息。最后进行通道压缩和维度合并处理得到后处理结果,并对原始时序人体骨架数据进行切割处理得到残差,将后处理结果与残差进行元素相加得到最终的预测结果。本发明可以有效地减少人体运动预测过程中姿态的不连续与误差的累计。

    一种空地多视角下的多机器人协同定位及融合建图方法

    公开(公告)号:CN109579843A

    公开(公告)日:2019-04-05

    申请号:CN201811444561.5

    申请日:2018-11-29

    Abstract: 本发明公开了一种空地多视角下的多机器人协同定位及融合建图方法,使用空中、地面多视角完整覆盖探测场景,融合由空中机器人、地面机器人采集的场景图像数据,通过视觉约束定位各机器人并还原三维场景信息。通过附着于机器人上的特定视觉特征,优化建图和定位系统三维点云地图和机器人六自由度位姿。基于视觉特征的位姿优化、地图融合算法显著地提高了的重建和定位精度,修正了地图尺度,使得各机器人的局部地图能够在多个异构机器人间共享,提高了三维重建的覆盖率,为任务规划、灾难环境搜救、军事反恐等情景快速提供可靠的环境信息。

    一种基于全MLP架构的高度紧凑型人体长时运动预测方法

    公开(公告)号:CN119251867A

    公开(公告)日:2025-01-03

    申请号:CN202411276030.5

    申请日:2024-09-12

    Abstract: 本发明公开了一种基于全MLP架构的高度紧凑型人体长时运动预测方法,包括:获取原始时序人体骨架数据并进行预处理,预处理为将原始时序人体骨架数据由时域变换为频域后映射到高维空间,形成高维空间特征;建立全MLP架构模型,包括N个依次连接的动态时空特征感知模块;将高维空间特征输入全MLP架构模型,获得第一提取特征;将第一提取特征依次经过层归一化和第一线性层从高维空间恢复至三维空间;将恢复后的第一提取特征从频域变换为时域,形成第二提取特征;将第二提取特征输入多时段联合预测模块,获得最终预测结果。通过轻量化设计大大减少模型的参数量,从而降低了计算复杂度与资源消耗,提高了预测的准确性和可靠性,通用性好。

    一种基于跨模态连续时序约束的手语识别方法

    公开(公告)号:CN119206869A

    公开(公告)日:2024-12-27

    申请号:CN202411334582.7

    申请日:2024-09-24

    Abstract: 本发明公开了一种基于跨模态连续时序约束的手语识别方法,在训练手语视觉识别网络模型时引入辅助语言模型和跨模态连续时序约束模块,将视频样本输入至手语视觉识别网络模型,获取视觉特征,然后通过多层感知机投影得到对应的视觉中间特征;并将辅助语言序列,输入至辅助语言模型,获取语言特征,然后通过多层感知机投影得到对应的语言中间特征;然后将视觉中间特征和语言中间特征输入跨模态连续时序约束模块,计算模态间输出差异指标和跨模态连续约束损失,完成手语视觉识别网络模型的训练。从而通过训练完成的手语视觉识别网络模型来进行手语识别。本发明增强了算法的性能,从而推动人工智能在动作识别、手语识别等领域的应用。

    一种基于特征金字塔的骨架动作识别方法

    公开(公告)号:CN119206868A

    公开(公告)日:2024-12-27

    申请号:CN202411334343.1

    申请日:2024-09-24

    Abstract: 本发明公开了一种基于特征金字塔的骨架动作识别方法,将待检测骨架序列输入到由预设数量的金字塔图卷积块组成的特征提取网络,获得人体骨架的多尺度特征;然后,对特征提取网络输出的多尺度特征进行帧融合和个体融合,得到通道数维度向量;最后对通道数维度向量进行线性投影变化后,经过分类函数得到识别结果。本发明通过捕捉骨架序列的多尺度空间特征,增强了模型的表征能力,通过基于注意力的图池化模块,能够有效地将骨架压缩为多个低阶子图,相比于现有技术方案,本申请实现了最高的识别准确率。

Patent Agency Ranking