基于多尺度Transformer的单目标跟踪方法

    公开(公告)号:CN114140495A

    公开(公告)日:2022-03-04

    申请号:CN202111340646.0

    申请日:2021-11-12

    Abstract: 本发明公开了基于多尺度Transformer的单目标跟踪方法。本发明首先从模板特征中裁剪出不同空间尺寸的表达特征,通过不同大小卷积核获取多尺度语义空间的目标特征信息,再利用该信息监督模板特征的增强,使之具有目标特征的感知能力。然后离线一个IoU‑Net来评估候选框的准确率,以目标的特征学习一个特征调制向量作用于候选框特征,调制后的特征经过泛化学习得到候选框的置信度分数。最后,通过多次的迭代优化,找到置信度最高的候选框作为跟踪结果。基于本发明提出的多尺度Transformer模块,使得ATOM跟踪方法的准确性有了一定提高,并且能够在复杂场景中更加精确地估计出目标的边界框。

    一种基于旋转自适应卷积网络的视觉跟踪方法

    公开(公告)号:CN112802057B

    公开(公告)日:2024-02-09

    申请号:CN202011363738.6

    申请日:2020-11-27

    Abstract: 本发明公开了一种基于旋转自适应卷积网络的视觉跟踪方法。本发明具体步骤包括搭建VGG19网络,在VGG19网络中搭建旋转自适应模块,获得基于旋转自适应模块的视觉跟踪网络模型,最后在公开数据集OTB2015上对旋转自适应卷积网络模型进行实验。由于多数跟踪算法一般只对跟踪目标的位置和尺度进行预测,而忽略了目标对象在跟踪过程中可能发生了旋转。针对现有视觉跟踪方法的不足,本发明利用卷积网络能快速提取目标丰富的层次特征(包括浅层特征和深层特征),并添加旋转自适应模块来增强跟踪器应对目标旋转变化的稳定性,从而进一步提升跟踪算法的准确性和鲁棒性。此外,本发明提出的旋转自适应模块,为各类目标跟踪方法提供一种鲁棒的目标旋转位置估计方法。

    一种基于旋转自适应卷积网络的视觉跟踪方法

    公开(公告)号:CN112802057A

    公开(公告)日:2021-05-14

    申请号:CN202011363738.6

    申请日:2020-11-27

    Abstract: 本发明公开了一种基于旋转自适应卷积网络的视觉跟踪方法。本发明具体步骤包括搭建VGG19网络,在VGG19网络中搭建旋转自适应模块,获得基于旋转自适应模块的视觉跟踪网络模型,最后在公开数据集OTB2015上对旋转自适应卷积网络模型进行实验。由于多数跟踪算法一般只对跟踪目标的位置和尺度进行预测,而忽略了目标对象在跟踪过程中可能发生了旋转。针对现有视觉跟踪方法的不足,本发明利用卷积网络能快速提取目标丰富的层次特征(包括浅层特征和深层特征),并添加旋转自适应模块来增强跟踪器应对目标旋转变化的稳定性,从而进一步提升跟踪算法的准确性和鲁棒性。此外,本发明提出的旋转自适应模块,为各类目标跟踪方法提供一种鲁棒的目标旋转位置估计方法。

Patent Agency Ranking