-
公开(公告)号:CN109800689B
公开(公告)日:2022-03-29
申请号:CN201910007818.9
申请日:2019-01-04
申请人: 西南交通大学
摘要: 本发明公开了一种基于时空特征融合学习的目标跟踪方法,涉及计算机视觉及模式识别技术领域。首先构建时空特征融合学习网络,时空特征包括时序特征和空间特征,其中时序特征通过采用Alexnet与时间递归神经网络相结合的方式提取;空间特征又分为目标对象空间变换特征和背景空间特征,分别采用YOLOv3和Alexnet提取。在网络初始训练过程中,使用训练数据集和随机梯度下降法对时空特征融合学习网络进行训练,训练完成后网络即可获得对目标对象进行定位的初始能力。将要跟踪的图像序列输入网络中进行正向处理,网络将输出目标对象包围盒的位置和置信度,其中置信度决定网络是否进行在线学习,而包围盒的位置实现对目标对象的定位,从而实现对目标对象的跟踪。
-
公开(公告)号:CN109493370B
公开(公告)日:2021-07-02
申请号:CN201811186951.7
申请日:2018-10-12
申请人: 西南交通大学
摘要: 本发明提供了一种基于空间偏移学习的目标跟踪方法,涉及计算机视觉技术领域。选择并确定要跟踪的目标对象,目标选取过程通过运动目标检测方法自动提取或者人工指定;空间偏移学习网络包含图像数据提取、深度神经网络、多层感知机MLP和空间偏移输出四个部分:在实时处理情况下,提取通过摄像头采集并保存在存储区的视频图像,作为要进行跟踪的输入图像;在离线处理情况下,将已采集的视频文件分解为多个帧组成的图像序列;短时跟踪采用粒子滤波方法,粒子滤波中的一个粒子代表一个可能的目标图像块,以对应的目标关注区域ROI作为空间偏移学习网络的在线训练集,采用随机梯度下降法SGD对空间偏移学习网络进行在线训练,更新网络参数;目标定位与更新。
-
公开(公告)号:CN109800689A
公开(公告)日:2019-05-24
申请号:CN201910007818.9
申请日:2019-01-04
申请人: 西南交通大学
摘要: 本发明公开了一种基于时空特征融合学习的目标跟踪方法,涉及计算机视觉及模式识别技术领域。首先构建时空特征融合学习网络,时空特征包括时序特征和空间特征,其中时序特征通过采用Alexnet与时间递归神经网络相结合的方式提取;空间特征又分为目标对象空间变换特征和背景空间特征,分别采用YOLOv3和Alexnet提取。在网络初始训练过程中,使用训练数据集和随机梯度下降法对时空特征融合学习网络进行训练,训练完成后网络即可获得对目标对象进行定位的初始能力。将要跟踪的图像序列输入网络中进行正向处理,网络将输出目标对象包围盒的位置和置信度,其中置信度决定网络是否进行在线学习,而包围盒的位置实现对目标对象的定位,从而实现对目标对象的跟踪。
-
公开(公告)号:CN108537825A
公开(公告)日:2018-09-14
申请号:CN201810250785.6
申请日:2018-03-26
申请人: 西南交通大学
IPC分类号: G06T7/246
摘要: 本发明提供了一种基于迁移学习回归网络的目标跟踪方法,涉及计算机视觉技术领域。从初始图像中选择并确定要跟踪的目标对象;基于分块预测的目标位置回归网络构建;面向跟踪的训练数据集生成和网络训练;图像输入,在实时处理情况下,提取通过摄像头采集并保存在存储区的视频图像,作为要进行跟踪的输入图像;目标定位,将获得图像输入到位置回归网络中,经网络正向处理后,网络输出层将得到8×8×8个相对位置数据。网络更新根据得到的目标位置,计算由整幅图像划分出的8×8个图像块与目标之间的8×8×8个相对位置,并连同当前输入图像构成一组训练数据。
-
公开(公告)号:CN108537825B
公开(公告)日:2021-08-17
申请号:CN201810250785.6
申请日:2018-03-26
申请人: 西南交通大学
IPC分类号: G06T7/246
摘要: 本发明提供了一种基于迁移学习回归网络的目标跟踪方法,涉及计算机视觉技术领域。从初始图像中选择并确定要跟踪的目标对象;基于分块预测的目标位置回归网络构建;面向跟踪的训练数据集生成和网络训练;图像输入,在实时处理情况下,提取通过摄像头采集并保存在存储区的视频图像,作为要进行跟踪的输入图像;目标定位,将获得图像输入到位置回归网络中,经网络正向处理后,网络输出层将得到8×8×8个相对位置数据。网络更新根据得到的目标位置,计算由整幅图像划分出的8×8个图像块与目标之间的8×8×8个相对位置,并连同当前输入图像构成一组训练数据。
-
公开(公告)号:CN109272036B
公开(公告)日:2021-07-02
申请号:CN201811071459.5
申请日:2018-09-14
申请人: 西南交通大学
摘要: 本发明公开了一种基于深度残差网络的随机蕨目标跟踪方法,涉及计算机视觉及模式识别技术领域。从初始图像中选择并确定要跟踪的目标对象,检测器构建与初始化;组成的图像序列并按照时间顺序,逐个提取帧图像作为输入图像;跟踪过程中短时跟踪器在以上次确定的目标位置为中心的搜索区域与目标图像块做比较;提取目标图像块作为正样例,并在其周围选取背景图像块作为负样例,生成在线训练集并输入到检测器;检测器对整个图像区域执行目标检测,比较所有测试图像块的目标概率,将具有最大目标概率的测试图像块所对应的位置作为目标所在的位置,目标定位完成。
-
公开(公告)号:CN109493370A
公开(公告)日:2019-03-19
申请号:CN201811186951.7
申请日:2018-10-12
申请人: 西南交通大学
摘要: 本发明提供了一种基于空间偏移学习的目标跟踪方法,涉及计算机视觉技术领域。选择并确定要跟踪的目标对象,目标选取过程通过运动目标检测方法自动提取或者人工指定;空间偏移学习网络包含图像数据提取、深度神经网络、多层感知机MLP和空间偏移输出四个部分:在实时处理情况下,提取通过摄像头采集并保存在存储区的视频图像,作为要进行跟踪的输入图像;在离线处理情况下,将已采集的视频文件分解为多个帧组成的图像序列;短时跟踪采用粒子滤波方法,粒子滤波中的一个粒子代表一个可能的目标图像块,以对应的目标关注区域ROI作为空间偏移学习网络的在线训练集,采用随机梯度下降法SGD对空间偏移学习网络进行在线训练,更新网络参数;目标定位与更新。
-
公开(公告)号:CN109272036A
公开(公告)日:2019-01-25
申请号:CN201811071459.5
申请日:2018-09-14
申请人: 西南交通大学
摘要: 本发明公开了一种基于深度残差网络的随机蕨目标跟踪方法,涉及计算机视觉及模式识别技术领域。从初始图像中选择并确定要跟踪的目标对象,检测器构建与初始化;组成的图像序列并按照时间顺序,逐个提取帧图像作为输入图像;跟踪过程中短时跟踪器在以上次确定的目标位置为中心的搜索区域与目标图像块做比较;提取目标图像块作为正样例,并在其周围选取背景图像块作为负样例,生成在线训练集并输入到检测器;检测器对整个图像区域执行目标检测,比较所有测试图像块的目标概率,将具有最大目标概率的测试图像块所对应的位置作为目标所在的位置,目标定位完成。
-
公开(公告)号:CN110298404B
公开(公告)日:2020-12-29
申请号:CN201910591870.3
申请日:2019-07-02
申请人: 西南交通大学
摘要: 本发明公开了一种基于三重孪生哈希网络学习的目标跟踪方法,涉及计算机视觉、目标跟踪及深度学习技术领域。该方法首先构建了一个三重孪生哈希网络,该网络由数据输入层、卷积特征提取层、哈希编码层三部分构成。在网络初始训练过程中,使用训练数据集和随机梯度下降反向传播算法对三重孪生哈希网络进行训练,训练完成后网络即可获得目标定位的初始能力。跟踪过程中则首先将输入图像通过三重孪生区域推荐网络得到相应的候选框,再将候选框输入三重孪生哈希网络进行正向处理,分别计算每个候选框与查询样本的相似度,选择最高相似度的候选框作为跟踪目标对象,从而实现目标跟踪。
-
公开(公告)号:CN110298404A
公开(公告)日:2019-10-01
申请号:CN201910591870.3
申请日:2019-07-02
申请人: 西南交通大学
摘要: 本发明公开了一种基于三重孪生哈希网络学习的目标跟踪方法,涉及计算机视觉、目标跟踪及深度学习技术领域。该方法首先构建了一个三重孪生哈希网络,该网络由数据输入层、卷积特征提取层、哈希编码层三部分构成。在网络初始训练过程中,使用训练数据集和随机梯度下降反向传播算法对三重孪生哈希网络进行训练,训练完成后网络即可获得目标定位的初始能力。跟踪过程中则首先将输入图像通过三重孪生区域推荐网络得到相应的候选框,再将候选框输入三重孪生哈希网络进行正向处理,分别计算每个候选框与查询样本的相似度,选择最高相似度的候选框作为跟踪目标对象,从而实现目标跟踪。
-
-
-
-
-
-
-
-
-