-
公开(公告)号:CN109272530B
公开(公告)日:2020-07-21
申请号:CN201810899198.X
申请日:2018-08-08
Applicant: 北京航空航天大学
Abstract: 本发明提供一种面向空基监视场景的目标跟踪方法与装置。本发明提供的方法,包括:实时获取目标对象的待跟踪视频,提取第一帧以及第二帧,对第一帧进行剪裁截取得到第一兴趣区域图像,对第二帧进行剪裁截取得到目标模板图像以及第二兴趣区域图像,将目标模板图像以及第一兴趣区域图像输入外观跟踪器网络,得到外观跟踪位置,将第一兴趣区域图像以及第二兴趣区域图像输入运动跟踪器网络,得到运动跟踪位置,最后将外观跟踪位置以及运动跟踪位置输入深度融合网络,得到最终跟踪位置。本发明提供的目标跟踪方法,通过两路跟踪器网络并联的方法,利用目标对象的外观和运动信息进行定位跟踪,再将两次定位信息进行融合,从而实现对目标对象的实时跟踪。
-
公开(公告)号:CN105512606A
公开(公告)日:2016-04-20
申请号:CN201510825669.9
申请日:2015-11-24
Applicant: 北京航空航天大学
IPC: G06K9/00
CPC classification number: G06K9/00724 , G06K9/00744
Abstract: 本发明提供一种基于AR模型功率谱的动态场景分类方法及装置。该方法包括:获取多段动态场景视频每段各自的空域特征、时域特征和自回归AR模型功率谱频域特征;通过词袋模型分别对上述各域的特征进行统计分析,得到各域的词频直方统计图特征;将各域的多个词频直方统计图特征按域映射到核空间中,得到各域的核函数,得到各域的核函数的权重,根据权重对各域的核函数进行特征融合,得到分类特征,根据分类特征对多段动态场景视频进行分类。本发明提供的动态场景分类方法及装置,提高了具有周期性运动的动态场景的分类准确率,进一步提高了总的动态场景的分类能力。
-
公开(公告)号:CN105184257A
公开(公告)日:2015-12-23
申请号:CN201510566280.7
申请日:2015-09-08
Applicant: 北京航空航天大学
IPC: G06K9/00
CPC classification number: G06K9/00711 , G06K9/00744
Abstract: 本发明提供一种目标检测方法与装置,该方法包括:确定出待检测区域,针对待检测区域进行初步检测与姿态类型估计,接着对初步检测中疑似待检测目标为飞鸟的帧,确定待检测目标在该些帧中的姿态序列,然后根据姿态序列,进一步确定待检测目标在待检测视频中的基元动作序列,并匹配基元动作序列的基元动作频率分布直方图与至少一个样本基元动作直方图,根据匹配结果,确定疑似飞鸟的待检测目标是否确实为飞鸟。该过程中,由于至少一个样本基元动作直方图对应不同的运动过程,是不区分具体鸟种的,因此,可实现对低空环境中各种鸟种及不同姿态都适用的运动目标的检测。
-
公开(公告)号:CN104835180A
公开(公告)日:2015-08-12
申请号:CN201510214310.8
申请日:2015-04-29
Applicant: 北京航空航天大学
IPC: G06T7/20
CPC classification number: G06T7/246 , G06T2207/10016 , G06T2207/30232
Abstract: 本发明提供一种视频监控中的多目标跟踪方法和装置。该方法包括:从跟踪视频中获取至少一个兴趣目标的初始信息,初始信息包括初始位置、速度、加速度和特征信息,从兴趣目标中按照特征显著度从大到小的顺序选择出N0(t)个兴趣目标作为初始跟踪层,N0(t)由兴趣目标的速度和加速度确定,特征显著度根据特征信息确定,根据初始跟踪层中的N0(t)个兴趣目标的初始位置对N0(t)个兴趣目标进行逐个跟踪,根据未跟踪兴趣目标和已跟踪目标整体的关联度,将未跟踪兴趣目标依次选入下一新建跟踪层进行逐层跟踪。本发明提供的视频监控中的多目标跟踪方法和装置,提高了多目标跟踪的实效性和准确性。
-
公开(公告)号:CN109272530A
公开(公告)日:2019-01-25
申请号:CN201810899198.X
申请日:2018-08-08
Applicant: 北京航空航天大学
Abstract: 本发明提供一种面向空基监视场景的目标跟踪方法与装置。本发明提供的方法,包括:实时获取目标对象的待跟踪视频,提取第一帧以及第二帧,对第一帧进行剪裁截取得到第一兴趣区域图像,对第二帧进行剪裁截取得到目标模板图像以及第二兴趣区域图像,将目标模板图像以及第一兴趣区域图像输入外观跟踪器网络,得到外观跟踪位置,将第一兴趣区域图像以及第二兴趣区域图像输入运动跟踪器网络,得到运动跟踪位置,最后将外观跟踪位置以及运动跟踪位置输入深度融合网络,得到最终跟踪位置。本发明提供的目标跟踪方法,通过两路跟踪器网络并联的方法,利用目标对象的外观和运动信息进行定位跟踪,再将两次定位信息进行融合,从而实现对目标对象的实时跟踪。
-
公开(公告)号:CN105512606B
公开(公告)日:2018-12-21
申请号:CN201510825669.9
申请日:2015-11-24
Applicant: 北京航空航天大学
IPC: G06K9/00
Abstract: 本发明提供一种基于AR模型功率谱的动态场景分类方法及装置。该方法包括:获取多段动态场景视频每段各自的空域特征、时域特征和自回归AR模型功率谱频域特征;通过词袋模型分别对上述各域的特征进行统计分析,得到各域的词频直方统计图特征;将各域的多个词频直方统计图特征按域映射到核空间中,得到各域的核函数,得到各域的核函数的权重,根据权重对各域的核函数进行特征融合,得到分类特征,根据分类特征对多段动态场景视频进行分类。本发明提供的动态场景分类方法及装置,提高了具有周期性运动的动态场景的分类准确率,进一步提高了总的动态场景的分类能力。
-
公开(公告)号:CN105184257B
公开(公告)日:2018-08-07
申请号:CN201510566280.7
申请日:2015-09-08
Applicant: 北京航空航天大学
IPC: G06K9/00
Abstract: 本发明提供种目标检测方法与装置,该方法包括:确定出待检测区域,针对待检测区域进行初步检测与姿态类型估计,接着对初步检测中疑似待检测目标为飞鸟的帧,确定待检测目标在该些帧中的姿态序列,然后根据姿态序列,进步确定待检测目标在待检测视频中的基元动作序列,并匹配基元动作序列的基元动作频率分布直方图与至少个样本基元动作直方图,根据匹配结果,确定疑似飞鸟的待检测目标是否确实为飞鸟。该过程中,由于至少个样本基元动作直方图对应不同的运动过程,是不区分具体鸟种的,因此,可实现对低空环境中各种鸟种及不同姿态都适用的运动目标的检测。
-
公开(公告)号:CN104835180B
公开(公告)日:2017-10-10
申请号:CN201510214310.8
申请日:2015-04-29
Applicant: 北京航空航天大学
IPC: G06T7/246
Abstract: 本发明提供一种视频监控中的多目标跟踪方法和装置。该方法包括:从跟踪视频中获取至少一个兴趣目标的初始信息,初始信息包括初始位置、速度、加速度和特征信息,从兴趣目标中按照特征显著度从大到小的顺序选择出N0(t)个兴趣目标作为初始跟踪层,N0(t)由兴趣目标的速度和加速度确定,特征显著度根据特征信息确定,根据初始跟踪层中的N0(t)个兴趣目标的初始位置对N0(t)个兴趣目标进行逐个跟踪,根据未跟踪兴趣目标和已跟踪目标整体的关联度,将未跟踪兴趣目标依次选入下一新建跟踪层进行逐层跟踪。本发明提供的视频监控中的多目标跟踪方法和装置,提高了多目标跟踪的实效性和准确性。
-
-
-
-
-
-
-