-
公开(公告)号:CN113283407A
公开(公告)日:2021-08-20
申请号:CN202110828947.1
申请日:2021-07-22
Applicant: 南昌工程学院
Abstract: 本发明提出一种基于通道与空间注意力机制的孪生网络目标跟踪方法,包括如下步骤:对视频或图像数据集进行处理,以获得统一图像大小的多个目标图像;基于卷积神经网络模型、通道注意力机制以及空间注意力机制,构建得到新型骨干网络模型;从多个目标图像中提取训练样本,以对新型骨干网络模型进行训练;利用训练好的新型骨干网络模型在多个目标图像中提取以得到目标图像样本深层特征,并将目标图像样本深层特征在目标图像候选区域进行相似性匹配以得到多个目标候选块,每个目标候选块对应有一相似度得分;利用获取到的最大相似度得分的目标候选块进行目标跟踪。本发明所设计的跟踪算法的表观模型,具有更好的鲁棒性与精确度。
-
公开(公告)号:CN113256685A
公开(公告)日:2021-08-13
申请号:CN202110707429.4
申请日:2021-06-25
Applicant: 南昌工程学院
Abstract: 本发明提出一种基于卷积神经网络字典对学习的目标跟踪方法及系统,该方法包括:在第一帧目标图像进行采样处理以生成正候选样本,根据正候选样本训练得到边界框回归模型;在后续帧目标框内的目标图像的邻域内重新进行采样以生成正负候选样本,对卷积神经网络模型的全连接参数进行微调;基于空间距离机制以及卷积神经网络模型获得训练样本的深度特征,基于训练样本的深度特征进行字典对模型学习以获得初始字典对;基于训练样本的特征并进行联合字典对模型学习;通过联合字典对中的原子的线性组合表示候选目标图像样本,以实现目标图像定位跟踪。本发明提出的目标跟踪方法,具有很好的鲁棒性与精确度,可以更好地处理目标外观变化,实现目标跟踪。
-
公开(公告)号:CN113379806B
公开(公告)日:2021-11-09
申请号:CN202110929160.4
申请日:2021-08-13
Applicant: 南昌工程学院
Abstract: 本发明提出一种基于可学习稀疏转换注意力机制的目标跟踪方法与系统,包括:对给定第一帧目标框中的图像初始化以生成目标模板图像;在后续帧中,以前一帧目标框中的图像的目标中心作为中心点,通过多尺度策略以获取得到多个搜索区域图像;将目标模板图像与搜索区域图像输入到共享权值的卷积神经网络模型中,通过卷积神经网络分别提取特征;基于可学习稀疏模型对提取的特征进行空间转换和通道转换;将目标模板深度特征作为卷积核,对搜索区域图像进行滑窗操作,以得到多个得分图,根据得分值最大位置推测出目标相对位移和尺度变化,以实现目标跟踪。本发明具有很好的鲁棒性与实时性,可实现良好的目标图像跟踪效果。
-
公开(公告)号:CN113379806A
公开(公告)日:2021-09-10
申请号:CN202110929160.4
申请日:2021-08-13
Applicant: 南昌工程学院
Abstract: 本发明提出一种基于可学习稀疏转换注意力机制的目标跟踪方法与系统,包括:对给定第一帧目标框中的图像初始化以生成目标模板图像;在后续帧中,以前一帧目标框中的图像的目标中心作为中心点,通过多尺度策略以获取得到多个搜索区域图像;将目标模板图像与搜索区域图像输入到共享权值的卷积神经网络模型中,通过卷积神经网络分别提取特征;基于可学习稀疏模型对提取的特征进行空间转换和通道转换;将目标模板深度特征作为卷积核,对搜索区域图像进行滑窗操作,以得到多个得分图,根据得分值最大位置推测出目标相对位移和尺度变化,以实现目标跟踪。本发明具有很好的鲁棒性与实时性,可实现良好的目标图像跟踪效果。
-
公开(公告)号:CN113705588B
公开(公告)日:2022-01-25
申请号:CN202111261942.1
申请日:2021-10-28
Applicant: 南昌工程学院
IPC: G06V10/44 , G06V10/74 , G06V10/774 , G06V10/764 , G06V10/80 , G06V10/82 , G06K9/62 , G06N3/04 , G06N3/08
Abstract: 本发明提出一种基于卷积自注意力模块的孪生网络目标跟踪方法与系统,该方法包括:构建特征融合网络模型;通过卷积神经网络模型对模板分支上的目标图像特征以及搜索区域目标图像特征中的局部区域进行学习,以得到对应的局部语义信息,对局部语义信息进行聚合得到全局上下文相关信息;对特征融合网络模型进行预训练;利用预训练后的特征融合网络模型,在模板分支中提取目标图像特征以及搜索区域目标图像特征,并引入到带有锚点的区域建议网络的分类分支与回归分支中;并分别进行深度互相关卷积计算以得到相似度得分;对最大相似度得分的目标候选块进行目标跟踪。本发明可提高目标图像和搜索区域目标图像的全局匹配的准确性,实现更准确的跟踪。
-
公开(公告)号:CN113705588A
公开(公告)日:2021-11-26
申请号:CN202111261942.1
申请日:2021-10-28
Applicant: 南昌工程学院
Abstract: 本发明提出一种基于卷积自注意力模块的孪生网络目标跟踪方法与系统,该方法包括:构建特征融合网络模型;通过卷积神经网络模型对模板分支上的目标图像特征以及搜索区域目标图像特征中的局部区域进行学习,以得到对应的局部语义信息,对局部语义信息进行聚合得到全局上下文相关信息;对特征融合网络模型进行预训练;利用预训练后的特征融合网络模型,在模板分支中提取目标图像特征以及搜索区域目标图像特征,并引入到带有锚点的区域建议网络的分类分支与回归分支中;并分别进行深度互相关卷积计算以得到相似度得分;对最大相似度得分的目标候选块进行目标跟踪。本发明可提高目标图像和搜索区域目标图像的全局匹配的准确性,实现更准确的跟踪。
-
公开(公告)号:CN113256685B
公开(公告)日:2021-09-24
申请号:CN202110707429.4
申请日:2021-06-25
Applicant: 南昌工程学院
Abstract: 本发明提出一种基于卷积神经网络字典对学习的目标跟踪方法及系统,该方法包括:在第一帧目标图像进行采样处理以生成正候选样本,根据正候选样本训练得到边界框回归模型;在后续帧目标框内的目标图像的邻域内重新进行采样以生成正负候选样本,对卷积神经网络模型的全连接参数进行微调;基于空间距离机制以及卷积神经网络模型获得训练样本的深度特征,基于训练样本的深度特征进行字典对模型学习以获得初始字典对;基于训练样本的特征并进行联合字典对模型学习;通过联合字典对中的原子的线性组合表示候选目标图像样本,以实现目标图像定位跟踪。本发明提出的目标跟踪方法,具有很好的鲁棒性与精确度,可以更好地处理目标外观变化,实现目标跟踪。
-
-
-
-
-
-