-
公开(公告)号:CN115100681B
公开(公告)日:2024-10-15
申请号:CN202210721153.X
申请日:2022-06-24
Applicant: 暨南大学
IPC: G06V40/10 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种衣着识别方法、系统、介质及设备,该方法包括下述步骤:获取多场景下的摄像头视频,将其中的黑白视频着色,整合得到全彩色的图像数据库,对图像数据库进行解帧和标注,构建衣着数据集,基于YOLOv5模型构建衣着识别网络,在主干网络层尾部增加坐标注意力模块,在Neck网络层将YOLOv5模型中的拼接模块替换为Concat_bifpn模块;基于衣着数据集训练衣着识别网络;进行复合检测,基于YOLOv5模型对测试集中的人物进行识别,裁剪提取得到人像结果集,输入衣着识别网络得到衣着识别结果图像集。本发明解决了摄像头环境下目标检测难的问题,实现了精度与速度平衡的高效目标检测效果。
-
公开(公告)号:CN113920455A
公开(公告)日:2022-01-11
申请号:CN202111009898.5
申请日:2021-08-31
Applicant: 暨南大学
IPC: G06V20/40 , G06V20/52 , G06V10/25 , G06V10/56 , G06K9/62 , G06N3/04 , G06N3/08 , G06V10/774 , G06V10/82
Abstract: 本发明涉及一种基于深度神经网络的夜间视频着色方法,包括步骤:S1、建立目标检测神经网络模型,输入待处理的视频图像,利用目标检测算法,检测目标实例并生成裁剪的目标图像;S2、建立着色网络,通过构建两个端到端训练的骨干网络,包括实例着色网络和全图像着色网络,进行实例着色和全图像着色;再构建两个着色网络对应层级,进行端到端训练的全卷积神经网络;S3、建立融合模块,选择性地融合从实例着色网络和全图像着色网络中提取到的特征,最终获得着色后的夜间视频图像。本发明通过输入待处理的视频图像,将图像经过目标检测网络,实例图像着色和全图像着色的全卷积网络,以及融合模块的处理,最终获得着色后的夜间视频图像。
-
公开(公告)号:CN113920455B
公开(公告)日:2024-08-06
申请号:CN202111009898.5
申请日:2021-08-31
Applicant: 暨南大学
IPC: G06V20/40 , G06V20/52 , G06V10/25 , G06V10/56 , G06N3/0464 , G06N3/047 , G06N3/08 , G06V10/774 , G06V10/82
Abstract: 本发明涉及一种基于深度神经网络的夜间视频着色方法,包括步骤:S1、建立目标检测神经网络模型,输入待处理的视频图像,利用目标检测算法,检测目标实例并生成裁剪的目标图像;S2、建立着色网络,通过构建两个端到端训练的骨干网络,包括实例着色网络和全图像着色网络,进行实例着色和全图像着色;再构建两个着色网络对应层级,进行端到端训练的全卷积神经网络;S3、建立融合模块,选择性地融合从实例着色网络和全图像着色网络中提取到的特征,最终获得着色后的夜间视频图像。本发明通过输入待处理的视频图像,将图像经过目标检测网络,实例图像着色和全图像着色的全卷积网络,以及融合模块的处理,最终获得着色后的夜间视频图像。
-
公开(公告)号:CN115100681A
公开(公告)日:2022-09-23
申请号:CN202210721153.X
申请日:2022-06-24
Applicant: 暨南大学
Abstract: 本发明公开了一种衣着识别方法、系统、介质及设备,该方法包括下述步骤:获取多场景下的摄像头视频,将其中的黑白视频着色,整合得到全彩色的图像数据库,对图像数据库进行解帧和标注,构建衣着数据集,基于YOLOv5模型构建衣着识别网络,在主干网络层尾部增加坐标注意力模块,在Neck网络层将YOLOv5模型中的拼接模块替换为Concat_bifpn模块;基于衣着数据集训练衣着识别网络;进行复合检测,基于YOLOv5模型对测试集中的人物进行识别,裁剪提取得到人像结果集,输入衣着识别网络得到衣着识别结果图像集。本发明解决了摄像头环境下目标检测难的问题,实现了精度与速度平衡的高效目标检测效果。
-
-
-