-
公开(公告)号:CN111696136B
公开(公告)日:2023-06-16
申请号:CN202010518310.8
申请日:2020-06-09
Applicant: 电子科技大学
IPC: G06T7/246
Abstract: 本发明公开了一种基于编解码结构的目标跟踪方法,该方法使用编码器‑解码器与鉴别器组合,构建类似生成对抗网络结构,使得编码器提取的特征更加泛化,学习到被跟踪对象的本质特征。由于对象帧中存在被半遮挡、受到光照、运动模糊影响的对象,使得网络受到这些影响更小,更具鲁棒性。使用Focal Loss使用替代传统的交叉熵损失函数,使得网络减少易分类样本的损失,使得模型更关注于困难的、错分的样本,同时平衡正负样本数量的不均衡。使用Distance‑U loss作为回归损失,不仅关注重叠区域,还关注其他的非重合区域,具有尺度不变性,可以为边界框提供移动方向,同时具有较快的收敛速度。
-
公开(公告)号:CN111654705B
公开(公告)日:2022-11-11
申请号:CN202010505297.2
申请日:2020-06-05
Applicant: 电子科技大学
IPC: H04N19/186 , H04N19/625
Abstract: 本发明属于图像处理技术领域,具体提供基于新型色彩空间转换的马赛克图像压缩方法,用以解决现有技术恢复图像质量低、算法复杂且仅适用于某一特定格式的RGGB型CFA图像的问题。本发明将CFA的G1RBG2转换为四通道模型,然后使用新型色彩空间转换,消除像素之间的相关性,大大降低了编码码流的位数,使之能够直接通过传统编码框架进行编码;并且,本发明适用于任意格式的RGGB型CFA;同时,本发明中色彩空间转换矩阵和逆转换矩阵均为真实值,而不是近似结果,消除了转换矩阵带来的舍入误差;另外,本发明通过数学优化的方式更新需要编码的亮度分量,带来更好的恢复质量。
-
公开(公告)号:CN115187474A
公开(公告)日:2022-10-14
申请号:CN202210719935.X
申请日:2022-06-23
Applicant: 电子科技大学
IPC: G06T5/00 , G06V10/764
Abstract: 本发明公开了一种基于推理的两阶段浓雾图像去雾方法,属于图像处理和计算机视觉技术领域。本发明通过两阶段完成图像的去雾处理,首先,基于设置的图像雾浓度分类网络获取待去雾图像的图像块的雾浓度类别,然后在一阶段通过暗通道先验方法将轻度雾和中度雾区域还原为无雾区域,给二阶段浓雾区域的恢复提供了更多信息,相较于其他图像去雾算法,可以使得最终的输出结果可以还原出更多原无雾图像中的细节。二阶段基于一阶段的处理结构,结合基于推理的去雾网络处理雾图像中标记为重度雾的去雾,完成整张雾图像的去雾。本发明在数据集构建阶段,选取的无雾图像大多为符合真实场景的阴天图像,降低了去雾后图像产生色偏的几率。
-
公开(公告)号:CN110942471B
公开(公告)日:2022-07-01
申请号:CN201911057813.3
申请日:2019-11-01
Applicant: 电子科技大学
IPC: G06T7/246 , G06V20/56 , G06V10/82 , G06V10/774 , G06N3/04
Abstract: 本发明公开了一种基于时空约束的长时目标跟踪方法,其特征在于,包括如下步骤:S100根据图像分割网络,提取拍摄图像的道路区域信息;S200根据道路区域信息与模板帧,通过目标跟踪网络,得到目标位置信息;S300根据目标的历史位置信息计算目标的运动速度矢量;S400道路区域信息和运动速度矢量作为时空约束条件,根据时空约束对目标进行跟踪,得到约束后的目标位置信息。避免了误检测情况的发生,更加精确,具有更快的检测速度,提升了系统的鲁棒性,实现了长时跟踪的目的。
-
公开(公告)号:CN112215080B
公开(公告)日:2022-05-03
申请号:CN202010974350.3
申请日:2020-09-16
Applicant: 电子科技大学
Abstract: 本发明公开了一种利用时序信息的目标跟踪方法,涉及图像处理和计算机视觉领域。该方法使用的方法关键步骤分为如下两个阶段,其中第一阶段输入第一帧与搜索帧,第二阶段输出目标在搜索框上的位置。本发明在特征提取阶段使用非对称卷积模块,选择三种不同形态的卷积核共同使用提升了模型对图像翻转和旋转的鲁棒性,提高网络的抗旋转鲁棒性。在候选框精修中,使用双径候选框分类回归网络,分类支路与回归支路分别处理候选框的分类结果与精修后的候选框,相比单纯依赖卷积网络或全连接网络的网络,进一步提高了结果精度。同时利用时序信息进行目标跟踪后处理,选择更加契合之前结果的跟踪框,减少错误跟踪目标的情况发生。
-
公开(公告)号:CN109285180B
公开(公告)日:2021-09-24
申请号:CN201811007255.5
申请日:2018-08-31
Applicant: 电子科技大学
Abstract: 本发明公开了一种3D的道路车辆跟踪方法。属于计算视觉处理技术领域。本发明将目标3D空间特征和2D图像特征与MDP模型结合,重新构造评估函数,从而提出了一种基于2D和3D联合特征的多目标跟踪方法,将原始的2D图像域跟踪拓展到3D空间域跟踪,有效的解决了当遇到外观相似,距离较近的车辆相互遮挡时,出现的错跟、漂移等技术问题。
-
公开(公告)号:CN112215079A
公开(公告)日:2021-01-12
申请号:CN202010972556.2
申请日:2020-09-16
Applicant: 电子科技大学
Abstract: 本发明公开了一种全局多阶段目标跟踪方法,涉及图像处理和计算机视觉领域。该方法使用的方法关键步骤分为如下两个阶段,第一阶段输入为第一帧与搜索帧,第二阶段输出一系列带有置信度的跟踪目标边界框。本发明在目标跟踪网络的特征提取阶段使用可变形卷积结构,使得网络对目标的特征提取具有更强的形变鲁棒性。在区域候选网络使用导向锚框机制,让网络自行学习产生锚框,使得锚框与当前输入特征有更好的契合程度,同时在使用不同数据集进行训练时,模型对不同的数据集也有良好的拟合能力。使用正样本判别阈值递增的多阶段级联的候选框分类回归网络进行候选框的精修,使得候选框质量与不同阶段的判别阈值相匹配,进一步提升结果框的精确度。
-
公开(公告)号:CN107563310B
公开(公告)日:2020-06-16
申请号:CN201710702929.2
申请日:2017-08-16
Applicant: 电子科技大学
IPC: G06K9/00
Abstract: 本发明公开了一种违章变道检测方法,首先在输入的交通监控视频的场景中标记出待检测区域中的实线,再基于此对视频序列进行逐帧车辆检测。逐帧检测是否有目标出现在标记的实线附近,若有目标接近实线则对该目标进行跟踪。在跟踪的过程中计算当前车辆所有位置到实线上的垂直或水平投影,并计算投影到实际位置的有向距离。当相邻两帧出现该距离的符号反向则说明车辆已经越过实线,完成了变道。本发明的方法将实线附近的一个小邻域作为越线目标的候选区域,缩小了搜索和跟踪的范围,提高了整个处理过程的效率。而在跟踪过程中不断计算自己位置的几何中心与在实线上投影的有向距离来辨别车辆是否最终完成了变道,简便易行,机制鲁棒性强。
-
公开(公告)号:CN110942471A
公开(公告)日:2020-03-31
申请号:CN201911057813.3
申请日:2019-11-01
Applicant: 电子科技大学
Abstract: 本发明公开了一种基于时空约束的长时目标跟踪方法,其特征在于,包括如下步骤:S100根据图像分割网络,提取拍摄图像的道路区域信息;S200根据道路区域信息与模板帧,通过目标跟踪网络,得到目标位置信息;S300根据目标的历史位置信息计算目标的运动速度矢量;S400道路区域信息和运动速度矢量作为时空约束条件,根据时空约束对目标进行跟踪,得到约束后的目标位置信息。避免了误检测情况的发生,更加精确,具有更快的检测速度,提升了系统的鲁棒性,实现了长时跟踪的目的。
-
公开(公告)号:CN110598601A
公开(公告)日:2019-12-20
申请号:CN201910818437.9
申请日:2019-08-30
Applicant: 电子科技大学
Abstract: 本发明公开了一种基于分布式热力图的人脸3D关键点检测方法及系统,包括:将数据库中人脸关键点的N个3D参考坐标向量在三个二维平面进行降维投影;采用分布式编码子网络将每个2D参考坐标向量分别编码为一张分布式热力图;通过坐标映射的方式N张分布式热力图合并为一张2D联合热力图;通过concat算法将三张2D联合热力图叠加为3D联合热力图;采用解码子网络将所述3D联合热力图解码为N个3D检测坐标向量。本方法结合了现有的2D及3D人脸关键点检测方法的优点,构建分布式热力图、再通过坐标映射的方式将分布式热力图进行联合,其中的分布式编码子网络模型简单、计算量小,在保持较高检测精度的同时,可进一步减小模型参数量、提高模型运行速度。
-
-
-
-
-
-
-
-
-