-
公开(公告)号:CN111539989B
公开(公告)日:2023-09-22
申请号:CN202010312961.1
申请日:2020-04-20
Applicant: 北京交通大学
IPC: G06T7/246 , G06N3/0464 , G06N3/09 , G06N3/092
Abstract: 本发明提供了一种基于优化方差下降的计算机视觉单目标跟踪方法。该方法包括:根据单目标跟踪问题设计基于非凸优化的随机方差下降梯度的深度神经网络模型,对深度神经网络模型进行监督训练,根据训练好的深度神经网络模型使用基于回归动作奖励函数的强化学习方法训练表观模型与运动模型;利用训练好的表观模型、运动模型和深度神经网络模型对当前环境下的单目标进行跟踪,得到跟踪目标的预测位置和尺度;根据当前跟踪目标的位置和目标特征进行表观模型以及运动模型更新,进行下一帧的目标跟踪,直至跟踪结束。本发明的方法不仅运算速度更快,而且具有更稳定的模型探索能力,在绝大多数复杂场景下都能够达到更鲁棒的、高质量的目标跟踪效果。
-
公开(公告)号:CN111539989A
公开(公告)日:2020-08-14
申请号:CN202010312961.1
申请日:2020-04-20
Applicant: 北京交通大学
Abstract: 本发明提供了一种基于优化方差下降的计算机视觉单目标跟踪方法。该方法包括:根据单目标跟踪问题设计基于非凸优化的随机方差下降梯度的深度神经网络模型,对深度神经网络模型进行监督训练,根据训练好的深度神经网络模型使用基于回归动作奖励函数的强化学习方法训练表观模型与运动模型;利用训练好的表观模型、运动模型和深度神经网络模型对当前环境下的单目标进行跟踪,得到跟踪目标的预测位置和尺度;根据当前跟踪目标的位置和目标特征进行表观模型以及运动模型更新,进行下一帧的目标跟踪,直至跟踪结束。本发明的方法不仅运算速度更快,而且具有更稳定的模型探索能力,在绝大多数复杂场景下都能够达到更鲁棒的、高质量的目标跟踪效果。
-
公开(公告)号:CN111508000B
公开(公告)日:2024-02-09
申请号:CN202010290926.4
申请日:2020-04-14
Applicant: 北京交通大学
Abstract: 本发明提供了一种基于参数空间噪声网络的深度强化学习目标跟踪方法。该方法包括:构建基于深度强化学习的目标跟踪模型,设计基于参数空间噪声线性层的网络损失函数,通过目标跟踪模型对目标进行视频序列中的逐帧跟踪,输出跟踪得到的当前帧的目标位置;通过贪心算法选择最优的模型更新模式,根据最优的模型更新模式利用网络损失函数对当前的目标跟踪模型进行参数更新;基于当前帧的目标位置通过更新后的目标跟踪模型进行下一帧的目标跟踪,重复执行上述处理过程,直至完成全部帧的目标跟踪,输出目标在视频序列中完整的位置信息。本发明的方法运算速度更快,具有更好的可迁移性和鲁棒性,在复杂场景下都能够达到更高效、鲁
-
公开(公告)号:CN111508000A
公开(公告)日:2020-08-07
申请号:CN202010290926.4
申请日:2020-04-14
Applicant: 北京交通大学
Abstract: 本发明提供了一种基于参数空间噪声网络的深度强化学习目标跟踪方法。该方法包括:构建基于深度强化学习的目标跟踪模型,设计基于参数空间噪声线性层的网络损失函数,通过目标跟踪模型对目标进行视频序列中的逐帧跟踪,输出跟踪得到的当前帧的目标位置;通过贪心算法选择最优的模型更新模式,根据最优的模型更新模式利用网络损失函数对当前的目标跟踪模型进行参数更新;基于当前帧的目标位置通过更新后的目标跟踪模型进行下一帧的目标跟踪,重复执行上述处理过程,直至完成全部帧的目标跟踪,输出目标在视频序列中完整的位置信息。本发明的方法运算速度更快,具有更好的可迁移性和鲁棒性,在复杂场景下都能够达到更高效、鲁棒的目标跟踪结果。
-
-
-