-
公开(公告)号:CN113920455A
公开(公告)日:2022-01-11
申请号:CN202111009898.5
申请日:2021-08-31
Applicant: 暨南大学
IPC: G06V20/40 , G06V20/52 , G06V10/25 , G06V10/56 , G06K9/62 , G06N3/04 , G06N3/08 , G06V10/774 , G06V10/82
Abstract: 本发明涉及一种基于深度神经网络的夜间视频着色方法,包括步骤:S1、建立目标检测神经网络模型,输入待处理的视频图像,利用目标检测算法,检测目标实例并生成裁剪的目标图像;S2、建立着色网络,通过构建两个端到端训练的骨干网络,包括实例着色网络和全图像着色网络,进行实例着色和全图像着色;再构建两个着色网络对应层级,进行端到端训练的全卷积神经网络;S3、建立融合模块,选择性地融合从实例着色网络和全图像着色网络中提取到的特征,最终获得着色后的夜间视频图像。本发明通过输入待处理的视频图像,将图像经过目标检测网络,实例图像着色和全图像着色的全卷积网络,以及融合模块的处理,最终获得着色后的夜间视频图像。
-
公开(公告)号:CN113743233B
公开(公告)日:2023-08-01
申请号:CN202110912415.6
申请日:2021-08-10
Applicant: 暨南大学
IPC: G06V20/54 , G06V10/82 , G06N3/045 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了基于YOLOv5和MobileNetV2的车辆型号识别方法,包括以下步骤:S1、获取含车辆型号标签的公开车辆图片数据集;S2、对图片数据集按YOLOv5方式打标签;S3、为图片进行预处理;S4、进行YOLOv5训练,反复优化得到模型参数;S5、对原始图片数据集按YOLOv5标签的锚框数据进行裁剪,尽可能裁剪至图片仅含车辆信息;S6、修改MobileNetV2模型,拼接训练好的YOLOv5模型和修改后的MobileNetV2模型;S7、使用标签为车辆型号的原始数据集,预处理后对新拼接得到的模型进行训练,反复优化提升模型性能,得到优化训练完成的识别模型并将其用于实际车辆型号识别。本发明方法解决现有模型识别速率低,不足以满足交通系统的实时性、高效性以及在条件受限的情况下识别的准确率偏低的问题。
-
公开(公告)号:CN113920455B
公开(公告)日:2024-08-06
申请号:CN202111009898.5
申请日:2021-08-31
Applicant: 暨南大学
IPC: G06V20/40 , G06V20/52 , G06V10/25 , G06V10/56 , G06N3/0464 , G06N3/047 , G06N3/08 , G06V10/774 , G06V10/82
Abstract: 本发明涉及一种基于深度神经网络的夜间视频着色方法,包括步骤:S1、建立目标检测神经网络模型,输入待处理的视频图像,利用目标检测算法,检测目标实例并生成裁剪的目标图像;S2、建立着色网络,通过构建两个端到端训练的骨干网络,包括实例着色网络和全图像着色网络,进行实例着色和全图像着色;再构建两个着色网络对应层级,进行端到端训练的全卷积神经网络;S3、建立融合模块,选择性地融合从实例着色网络和全图像着色网络中提取到的特征,最终获得着色后的夜间视频图像。本发明通过输入待处理的视频图像,将图像经过目标检测网络,实例图像着色和全图像着色的全卷积网络,以及融合模块的处理,最终获得着色后的夜间视频图像。
-
公开(公告)号:CN113743233A
公开(公告)日:2021-12-03
申请号:CN202110912415.6
申请日:2021-08-10
Applicant: 暨南大学
Abstract: 本发明公开了基于YOLOv5和MobileNetV2的车辆型号识别方法,包括以下步骤:S1、获取含车辆型号标签的公开车辆图片数据集;S2、对图片数据集按YOLOv5方式打标签;S3、为图片进行预处理;S4、进行YOLOv5训练,反复优化得到模型参数;S5、对原始图片数据集按YOLOv5标签的锚框数据进行裁剪,尽可能裁剪至图片仅含车辆信息;S6、修改MobileNetV2模型,拼接训练好的YOLOv5模型和修改后的MobileNetV2模型;S7、使用标签为车辆型号的原始数据集,预处理后对新拼接得到的模型进行训练,反复优化提升模型性能,得到优化训练完成的识别模型并将其用于实际车辆型号识别。本发明方法解决现有模型识别速率低,不足以满足交通系统的实时性、高效性以及在条件受限的情况下识别的准确率偏低的问题。
-
-
-