机器人目标跟踪方法、装置、机器人及存储介质

    公开(公告)号:CN115861387A

    公开(公告)日:2023-03-28

    申请号:CN202211599044.1

    申请日:2022-12-14

    Abstract: 本申请涉及一种机器人目标跟踪方法、装置、机器人及存储介质,该方法包括:对第一图像和第二图像进行目标检测,得到至少一个第一对象和至少一个第二对象;第一图像基于第一相机采集,第二图像基于第二相机采集,第二相机的视野范围大于第一相机的视野范围,且与第一相机的视野范围存在交叠;提取各第一对象、第二对象在第一图像、第二图像中的图像特征和位置特征;基于图像特征和位置特征确定第一对象和第二对象中处于交叠视野范围内的目标对象;将目标对象所对应的图像特征融合后得到第三图像特征,基于第三图像特征跟踪目标对象,扩展了目标对象的跟踪视野,解决了相关技术中存在的机器人难以实现对被跟踪目标整体运动过程跟踪的问题。

    基于边框标注的弱监督视频目标分割方法及装置

    公开(公告)号:CN115761574A

    公开(公告)日:2023-03-07

    申请号:CN202211322815.2

    申请日:2022-10-27

    Abstract: 本发明公开了一种基于边框标注的弱监督视频目标分割方法及装置,方法包括下述步骤:在图像分割数据集上训练基于PReMVOS模型的伪标注生成模型;使用伪标注生成模型对视频数据和边框标注逐帧生成对应的伪掩模标注;利用生成的伪掩模标注,使用“合作教学”算法训练视频目标分割模型。本方法使用低代价的边框标注训练视频目标分割模型,从而降低视频目标分割模型迁移到实际应用场景时对新数据进行标注的代价,降低视频目标分割模型的落地难度;通过使用“合作教学”的训练算法,可以更充分地利用现有的大量视频目标跟踪数据集来训练视频目标分割模型,增强视频目标分割模型的性能和泛化能力。

    一种基于双目的人体三维关键点检测方法及系统

    公开(公告)号:CN114757822B

    公开(公告)日:2022-11-04

    申请号:CN202210663896.6

    申请日:2022-06-14

    Abstract: 本发明公开一种基于双目的人体三维关键点检测方法及系统,该方法包括:步骤一:通过采用YOLOv5目标检测算法的目标检测模块分别获得左、右视场图像中的人体矩形框;步骤二:扣取人体矩形框对应的人体图像,通过人体二维关键点识别算法提取左、右视场图像中人体各关键点的二维热力图;步骤三:将左、右人体二维关键点热力图反向投影到三维空间,得到三维反投影热力图;步骤四,将三维反投影热力图输入三维卷积编解码网络,通过编解码操作得到三维关键点热力图;步骤五,三维关键点热力图中每一通道通过自变量最大值软操作得到该通道表示的三维关键点所在坐标,最终得到全部人体三维关键点坐标。本发明具有较高的可行性和实用性。

    基于交叉卷积注意力对抗学习的人脸超分辨方法和装置

    公开(公告)号:CN114757832B

    公开(公告)日:2022-09-30

    申请号:CN202210663897.0

    申请日:2022-06-14

    Abstract: 本发明公开一种基于交叉卷积注意力对抗学习的人脸超分辨方法和装置,该方法将原始低分辨率图像输入人脸超分辨生成网络,经过卷积层、若干个全局残差通道注意力单元、粗上采样模块、两批局部残差通道注意力单元、精上采样模块,得到目标分辨率图像,再通过索贝尔算子获得边缘信息,通过低倍率降采样处理并反馈到主网络中进一步提高超分辨效果,利用小波变换将目标分辨率图像、真值图像和其他通过数据增强方式得到的图像进行分解,每个图像分解成一个低频信息、两个中频信息和一个高频信息,然后去掉低频信息,融合中频和高频信息,将其送到对抗网络进行判别,最后引入数据增强方法,以产生多个正负样本进行对抗网络与人脸超分辨网络的迭代优化。

    基于时间一致性对比学习的动作规范性检测方法和装置

    公开(公告)号:CN114648723A

    公开(公告)日:2022-06-21

    申请号:CN202210454687.0

    申请日:2022-04-28

    Abstract: 本发明涉及智能视频监控及深度学习领域,尤其涉及一种基于时间一致性对比学习的动作规范性检测方法和装置,该方法为:首先将第一数量标注和第二数量未标注的通过摄像头采集的视频构建数据集,第一数量小于第二数量;然后将未标注视频经过强弱数据增强后提取特征,再输入时间一致性行为对齐网络,输出特征图和不同样本间相似动作起始与结束帧集合,映射集合在特征图上对应子特征图,构造同类与不同类子特征图样本,送入对比学习网络提取时空判别性特征;再将第一数量标注视频送入预训练后的网络进行迁移学习,输出行为类别;最后通过帧间行为类别变化判断行为规范性,若不规范则发出预警。

    一种基于无监督学习的行人重识别方法

    公开(公告)号:CN113822262B

    公开(公告)日:2022-04-15

    申请号:CN202111412831.6

    申请日:2021-11-25

    Abstract: 本发明公开了一种基于无监督学习的行人重识别方法,在特征存储器中只保存聚类得到的类中心,采用分组采样的方式获取小样本集,并结合难例挖掘的方法更新存储器中的特征向量和特征提取网络模型参数,实现了在无标签数据集上的伪标签自动生成,增强了模型对于噪声数据的鲁棒性,大大减小了存储器对于内存空间的高额要求。本发明剔除了离群样本点对聚类中心的干扰,避免了随机采样导致的过拟合等问题,在小样本迭代过程中不更改数据标签,降低了标签跳变等噪声数据对于模型稳定性的影响,加速了模型的收敛,提高行人重识别模型在不同场景下的泛化能力。

    一种基于对比学习的细粒度舰船识别方法

    公开(公告)号:CN113255793B

    公开(公告)日:2021-11-30

    申请号:CN202110607551.4

    申请日:2021-06-01

    Abstract: 本发明公开了一种基于对比学习的细粒度舰船识别方法,采集并标注舰船分类数据集,并对每张图像采用几种不同的数据增强方式获得图像集合,依次组合成同类与非同类图像集合对,交替输入孪生分类网络进行图像特征提取与分类,通过三个损失函数分别提取图像的等变性特征、判别性特征以及多维融合特征,最终实现同类别舰船分类相同,不同类别舰船之间可有效区分的效果。本发明弥补了舰船类别分布不平衡、样本规模较小的实际问题,通过对比学习有效提升了细粒度分类的性能,通过提取等变特征提高了模型的泛化性,能适用于实战多变场景。

Patent Agency Ranking