-
公开(公告)号:CN112505684A
公开(公告)日:2021-03-16
申请号:CN202011288075.6
申请日:2020-11-17
Applicant: 东南大学
Abstract: 本发明公开了一种恶劣环境路侧视角下雷达视觉融合的车辆多目标跟踪方法,该方案融合雷达和视觉传感器,设计了一种结合目标距离和雷达散射面积的标定代价函数,实现了雷达视觉数据级融合处理,提升了感知信息的维度与可靠性,通过引入数据增强和抗干扰编码器解码器结构,设计了一种具有高抗扰能力的目标检测网络架构,提升了恶劣环境下目标跟踪系统的识别能力;最后,通过对目标位置与目标距离的相似度计算,赋予不同状态空间目标不同的跟踪策略,实现了对静态识别目标的动态准确跟踪过程。本发明借助数据和模型两个层面的融合增强处理,使得方案具有较强的可靠性和准确性,能够在诸如逆光、夜间等场景下持续准确获取车辆目标的位置与速度信息。
-
公开(公告)号:CN111898501A
公开(公告)日:2020-11-06
申请号:CN202010692817.5
申请日:2020-07-17
Applicant: 东南大学
Abstract: 本发明公开了一种针对拥堵路段的无人机在线航拍车辆识别及统计方法,该方法首先构建拥堵路段航拍车辆数据集,之后对原始的YOLOv3网络进行了改进,利用K-Means++算法得到针对于拥堵路段航拍车辆数据集的anchor尺寸,并利用该anchor尺寸训练得到基于YOLOv3卷积神经网络的拥堵路段航拍车辆实时检测模型;然后使用得到的车辆检测模型对无人机沿拥堵路段航行获取的航拍图像进行实时在线检测,识别车辆目标,同时采用KM算法建立相邻两帧图像检测出的车辆目标间精准的匹配关系,准确得到当前帧较前一帧的新增车辆数目,从而实现拥堵路段车辆数量统计。本发明提出的车辆识别及统计方法具有较好的灵活性,实现了针对拥堵路段内车辆数量的准确、实时、在线统计。
-
公开(公告)号:CN114882530B
公开(公告)日:2024-07-12
申请号:CN202210499061.1
申请日:2022-05-09
Applicant: 东南大学
IPC: G06V40/10 , G06V10/82 , G06N3/0464 , G06N3/09
Abstract: 本发明公开了一种构建面向行人检测的轻量级卷积神经网络模型的方法,该轻量级卷积神经网络模型由多个基本组成模块堆叠而成,每个所述基本组成模块采用多分支的并行结构获取不同尺度感受野下的特征,每个分支包含不同扩张率的空洞卷积和分组卷积;在基本组成模块之后,连接空间注意力机制模块。本发明提出的轻量级行人检测网络模型,不仅具备较少的参数量和计算量,而且具备良好的行人检测精确度,对于存储和计算资源有限、并且实时性要求较高的嵌入式端行人检测场景来说具有一定的现实意义。
-
公开(公告)号:CN117274516A
公开(公告)日:2023-12-22
申请号:CN202311181064.1
申请日:2023-09-13
Applicant: 东南大学
IPC: G06T17/05 , G06T3/40 , G06T7/80 , G06F30/13 , G06F17/11 , G06V10/764 , G06V10/80 , G06N3/0464 , G06N3/08 , G06F111/04
Abstract: 本发明公开了一种路端监控摄像头交通目标三维检测方法,该方法的核心在于,针对现有三维目标检测方法在深度预测时精确不佳的问题,设计了一种基于激光雷达点云的静态交通场景三维模型构建方法,在此基础上,设计了一种高分辨率动态交通目标关键点检测网络,实现了对交通目标精确的关键点位置提取,另一方面,针对不同安装条件下现有算法泛化性不足的问题,设计了一种基于二维关键点与三维点云模型的交通目标三维属性解算方法,该方法可以从精确二维关键点位置和三维点云模型中恢复出目标的三维空间位置,从而提高了现有系统的泛化能力。
-
公开(公告)号:CN112132746B
公开(公告)日:2022-11-11
申请号:CN202010982493.9
申请日:2020-09-17
Applicant: 东南大学
Abstract: 本发明公开了一种面向智能路侧设备的小尺度行人目标快速超分辨率化方法,该方法包括:采集并构建小尺度行人高低分辨率数据训练集;基于生成对抗思想,搭建针对低分辨率小尺度行人图像的轻量化生成网络,该网络首先利用可分离卷积进行图像初步特征的提取,然后结合残差模块对高频信息进行拟合,最后借助像素重组模块对低分辨率行人图像进行高分辨率化重建;搭建判别网络,对生成网络的参数进行判别训练,得到最佳生成网络;利用最佳生成网络对低分辨率小尺度行人图片进行超分辨化,得到高分辨率的行人目标。本发明所设计轻量级的超分辨率化生成网络具备训练时间短、推理延时低的显著优势,填补了智能路侧领域小尺度行人实时超分辨率化技术空白。
-
公开(公告)号:CN114882530A
公开(公告)日:2022-08-09
申请号:CN202210499061.1
申请日:2022-05-09
Applicant: 东南大学
Abstract: 本发明公开了一种面向行人检测的轻量级卷积神经网络模型,该轻量级卷积神经网络模型由多个基本组成模块堆叠而成,每个所述基本组成模块采用多分支的并行结构获取不同尺度感受野下的特征,每个分支包含不同扩张率的空洞卷积和分组卷积;在基本组成模块之后,连接空间注意力机制模块。本发明提出的轻量级行人检测网络模型,不仅具备较少的参数量和计算量,而且具备良好的行人检测精确度,对于存储和计算资源有限、并且实时性要求较高的嵌入式端行人检测场景来说具有一定的现实意义。
-
公开(公告)号:CN110210389B
公开(公告)日:2022-07-19
申请号:CN201910469443.8
申请日:2019-05-31
Applicant: 东南大学
IPC: G06V20/52 , G06V10/762 , G06K9/62 , G01S17/66
Abstract: 本发明公开了一种面向道路交通场景的多目标识别跟踪方法。该方法结合道路交通现场环境及障碍物特点,通过激光雷达检测道路现场周围的动态障碍物,步骤如下:首先对激光雷达数据进行预处理,将其转换成一幅二值图像,其次运用背景差法提取动态障碍物并进行聚类分析,进而运用PointCNN算法进行分类识别并通过迭代最邻近算法获取障碍物的位姿变换,最后针对障碍物分类分别使用UKF进行跟踪。本发明提出的多目标识别跟踪方法具有良好的实时性、识别精度和跟踪精度,能够有效地实现对道路交通场景的安全监控。
-
公开(公告)号:CN111898501B
公开(公告)日:2022-04-05
申请号:CN202010692817.5
申请日:2020-07-17
Applicant: 东南大学
Abstract: 本发明公开了一种针对拥堵路段的无人机在线航拍车辆识别及统计方法,该方法首先构建拥堵路段航拍车辆数据集,之后对原始的YOLOv3网络进行了改进,利用K‑Means++算法得到针对于拥堵路段航拍车辆数据集的anchor尺寸,并利用该anchor尺寸训练得到基于YOLOv3卷积神经网络的拥堵路段航拍车辆实时检测模型;然后使用得到的车辆检测模型对无人机沿拥堵路段航行获取的航拍图像进行实时在线检测,识别车辆目标,同时采用KM算法建立相邻两帧图像检测出的车辆目标间精准的匹配关系,准确得到当前帧较前一帧的新增车辆数目,从而实现拥堵路段车辆数量统计。本发明提出的车辆识别及统计方法具有较好的灵活性,实现了针对拥堵路段内车辆数量的准确、实时、在线统计。
-
公开(公告)号:CN114821064B
公开(公告)日:2025-01-03
申请号:CN202210521072.5
申请日:2022-05-13
Applicant: 东南大学
IPC: G06V10/26 , G06V20/70 , G06V10/44 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/0455 , G06N3/084 , G06N3/048
Abstract: 本发明公开了一种基于多光谱图像融合的森林非结构化场景分割方法,该方法针对森林非结构化场景背景复杂、多光线和阴影干扰等情况,引入增强植被指数(EVI)数据,设计了并行双编码结构来提取RGB与EVI的特征,并在编码过程中形成多模态互补特征。此外,编码阶段还利用扩张卷积增加了网络的感受野,优化了特征提取过程。接着将解码特征与编码产生的融合特征二次融合,得到多光谱融合卷积神经网络,而后对该网络进行训练并输入RGB与EVI图像实现森林非结构化场景的语义分割。本发明有效解决了基于RGB图像的非结构化分割方法容易出现适应性差、误分割的问题,提高了森林非结构化场景语义分割的准确性和鲁棒性。
-
公开(公告)号:CN117274305A
公开(公告)日:2023-12-22
申请号:CN202311181049.7
申请日:2023-09-13
Applicant: 东南大学
Abstract: 本发明涉及一种基于路侧摄像头的道路抛洒物检测方法,该方法的核心在于,针对传统高斯混合模型背景建模方法对大尺度目标的建模精度问题,基于图像金字塔和自适应背景差法,设计了一种多尺度自适应道路背景建模方法,提高了原有方法在不同视频分辨率下的背景建模精度,另一方面,针对抛洒物视觉特征识别准确率不足的问题,基于视觉特征与运动特征,构建了抛洒物多层级特征筛选方法。本发明所设计的方案具有较强的尺度适应性和环境适应性,能够有效降低抛洒物误报、漏报率,提升抛洒物视觉检测系统的检测精度。
-
-
-
-
-
-
-
-
-