-
公开(公告)号:CN110796679B
公开(公告)日:2023-04-07
申请号:CN201911043274.8
申请日:2019-10-30
Applicant: 电子科技大学
Abstract: 本发明公开了一种面向航拍影像的目标跟踪方法,包括:S100在上一帧的目标位置周围,执行增量式的搜索策略;S200采样的样本经过孪生网络和区域推荐网络,得到预测位置的目标;S300通过计算预测位置的目标与目标模板的相似度判断预测是否成功;若预测成功,则保存具体的目标位置并用于下一次预测;预测失败时,若系统在连续的N帧内有n帧预测失败,则判断为目标丢失,进入步骤S400,否则判断为误检测;S400将检测框初始化,并置于当前帧图像的中心点,执行增量式的搜索策略,重新检测和跟踪,直到重新定位到目标。本发明对于目标被遮挡后的重新检测速度有明显的提升,减少了检测框的误采样计算,能够快速的重新定位。
-
公开(公告)号:CN111079685B
公开(公告)日:2022-07-26
申请号:CN201911354155.4
申请日:2019-12-25
Applicant: 电子科技大学
Abstract: 本发明提供了一种3D目标检测方法,该方法首先将点云鸟瞰图、待检测目标图像和前视图进行特征提取;得到鸟瞰图和待检测目标图像3D目标建议框,并将鸟瞰图、待检测目标图像和前视图各自融合后的特征图,通过逐像素相加平均进行总的特征图融合,得到最终的特征图融合结果;将3D目标建议框在最终融合的特征图上投影成2D目标建议框,得到该2D目标建议框对应的ROI区域特征,最后将该ROI区域特征进行候选目标的分类和回归,得到最终的3D目标检测候选框。本发明有效提高了检测网络在不同环境下对3D空间中感兴趣的不同目标的检测与定位性能,解决了道路环境下因为点云稀疏性而导致行人和车辆检测不佳的问题。
-
公开(公告)号:CN110516643A
公开(公告)日:2019-11-29
申请号:CN201910818457.6
申请日:2019-08-30
Applicant: 电子科技大学
Abstract: 本发明公开了一种基于联合热力图的人脸3D关键点检测方法及系统,包括:将数据库中人脸关键点的N个3D参考坐标向量在三个二维平面进行降维投影,每个二维平面中包括N个与所述N个3D参考坐标向量相对应的2D参考坐标向量;构建联合热力图人脸3D关键点检测模型;利用联合热力图人脸3D关键点检测模型将每个二维平面下的N个2D参考坐标向量联合编码为2D联合热力图;并将三个二维平面下的2D联合热力图叠加为3D联合热力图;并将3D联合热力图解码为N个3D检测坐标向量。本方法结合了现有的2D及3D人脸关键点检测方法的优点,所采用的联合热力图表示方法减小了计算量和模型复杂度,在保持较高检测精度的同时,减小模型参数量、提高模型运行速度。
-
-
公开(公告)号:CN111160214A
公开(公告)日:2020-05-15
申请号:CN201911354164.3
申请日:2019-12-25
Applicant: 电子科技大学
Abstract: 本发明提供了一种基于数据融合的3D目标检测方法,该方法采用深度卷积网络实现,具体包括:首先提出了一种特征提取方法,将点云鸟瞰图和待检测目标图像进行特征提取;然后利用马尔科夫随机场模型(MRF)将3D点云数据利用空间约束条件编码进一个全局能量函数,来提取3D候选建议框;最后提出一种数据融合方式,将多模态数据进行融合,进行目标框的分类和回归。本发明提出的基于数据融合的3D目标检测方法,能有效提高检测网络在不同环境下对3D空间中感兴趣的不同目标的检测与定位性能,解决了道路环境下因为点云稀疏性而导致行人和车辆检测不佳的问题。
-
公开(公告)号:CN111079685A
公开(公告)日:2020-04-28
申请号:CN201911354155.4
申请日:2019-12-25
Applicant: 电子科技大学
Abstract: 本发明提供了一种3D目标检测方法,该方法首先将点云鸟瞰图、待检测目标图像和前视图进行特征提取;得到鸟瞰图和待检测目标图像3D目标建议框,并将鸟瞰图、待检测目标图像和前视图各自融合后的特征图,通过逐像素相加平均进行总的特征图融合,得到最终的特征图融合结果;将3D目标建议框在最终融合的特征图上投影成2D目标建议框,得到该2D目标建议框对应的ROI区域特征,最后将该ROI区域特征进行候选目标的分类和回归,得到最终的3D目标检测候选框。本发明有效提高了检测网络在不同环境下对3D空间中感兴趣的不同目标的检测与定位性能,解决了道路环境下因为点云稀疏性而导致行人和车辆检测不佳的问题。
-
公开(公告)号:CN110796679A
公开(公告)日:2020-02-14
申请号:CN201911043274.8
申请日:2019-10-30
Applicant: 电子科技大学
Abstract: 本发明公开了一种面向航拍影像的目标跟踪方法,包括:S100在上一帧的目标位置周围,执行增量式的搜索策略;S200采样的样本经过孪生网络和区域推荐网络,得到预测位置的目标;S300通过计算预测位置的目标与目标模板的相似度判断预测是否成功;若预测成功,则保存具体的目标位置并用于下一次预测;预测失败时,若系统在连续的N帧内有n帧预测失败,则判断为目标丢失,进入步骤S400,否则判断为误检测;S400将检测框初始化,并置于当前帧图像的中心点,执行增量式的搜索策略,重新检测和跟踪,直到重新定位到目标。本发明对于目标被遮挡后的重新检测速度有明显的提升,减少了检测框的误采样计算,能够快速的重新定位。
-
-
公开(公告)号:CN111696136B
公开(公告)日:2023-06-16
申请号:CN202010518310.8
申请日:2020-06-09
Applicant: 电子科技大学
IPC: G06T7/246
Abstract: 本发明公开了一种基于编解码结构的目标跟踪方法,该方法使用编码器‑解码器与鉴别器组合,构建类似生成对抗网络结构,使得编码器提取的特征更加泛化,学习到被跟踪对象的本质特征。由于对象帧中存在被半遮挡、受到光照、运动模糊影响的对象,使得网络受到这些影响更小,更具鲁棒性。使用Focal Loss使用替代传统的交叉熵损失函数,使得网络减少易分类样本的损失,使得模型更关注于困难的、错分的样本,同时平衡正负样本数量的不均衡。使用Distance‑U loss作为回归损失,不仅关注重叠区域,还关注其他的非重合区域,具有尺度不变性,可以为边界框提供移动方向,同时具有较快的收敛速度。
-
公开(公告)号:CN110942471B
公开(公告)日:2022-07-01
申请号:CN201911057813.3
申请日:2019-11-01
Applicant: 电子科技大学
IPC: G06T7/246 , G06V20/56 , G06V10/82 , G06V10/774 , G06N3/04
Abstract: 本发明公开了一种基于时空约束的长时目标跟踪方法,其特征在于,包括如下步骤:S100根据图像分割网络,提取拍摄图像的道路区域信息;S200根据道路区域信息与模板帧,通过目标跟踪网络,得到目标位置信息;S300根据目标的历史位置信息计算目标的运动速度矢量;S400道路区域信息和运动速度矢量作为时空约束条件,根据时空约束对目标进行跟踪,得到约束后的目标位置信息。避免了误检测情况的发生,更加精确,具有更快的检测速度,提升了系统的鲁棒性,实现了长时跟踪的目的。
-
-
-
-
-
-
-
-
-