-
公开(公告)号:CN114266996B
公开(公告)日:2025-03-28
申请号:CN202111543179.1
申请日:2021-12-16
Applicant: 郑州轻工业大学
IPC: G06V20/40 , G06V10/764 , G06V10/84
Abstract: 本发明提出了一种基于Transformer的单目标跟踪方法,其步骤为:从视频的第一帧裁剪出目标区域,使用预训练的ResNet50网络进行特征提取;使用基于Transformer的特征融合方法将目标特征进行特征融合,输入回归模型生成器生成回归模型,将目标特征输入分类模型生成器生成分类模型;将搜索区域的提取特征使用基于Transformer的特征融合方法进行融合输入回归模型得到回归结果;将搜索区域的特征使用Transformer结合训练集进行特征增强输入分类模型得到分类结果;根据分类结果和回归结果对目标生成精确的包围框,进行目标跟踪。本发明将Transformer集成到跟踪框架中,在跟踪过程中充分利用了时间上下文和空间上下文提升了跟踪的精度。
-
公开(公告)号:CN114266996A
公开(公告)日:2022-04-01
申请号:CN202111543179.1
申请日:2021-12-16
Applicant: 郑州轻工业大学
IPC: G06V20/40 , G06K9/62 , G06V10/764 , G06V10/84
Abstract: 本发明提出了一种基于Transformer的单目标跟踪方法,其步骤为:从视频的第一帧裁剪出目标区域,使用预训练的ResNet50网络进行特征提取;使用基于Transformer的特征融合方法将目标特征进行特征融合,输入回归模型生成器生成回归模型,将目标特征输入分类模型生成器生成分类模型;将搜索区域的提取特征使用基于Transformer的特征融合方法进行融合输入回归模型得到回归结果;将搜索区域的特征使用Transformer结合训练集进行特征增强输入分类模型得到分类结果;根据分类结果和回归结果对目标生成精确的包围框,进行目标跟踪。本发明将Transformer集成到跟踪框架中,在跟踪过程中充分利用了时间上下文和空间上下文提升了跟踪的精度。
-