-
公开(公告)号:CN103136935A
公开(公告)日:2013-06-05
申请号:CN201310010960.1
申请日:2013-01-11
Applicant: 东南大学
Abstract: 本发明公开了一种在有遮挡情况下跟踪车辆的方法,它包括如下步骤:采集图像并设置检测线圈,通过判断检测线圈内块的运动矢量的大小来检测属于车辆的块;通过查找前一帧图像中每一个属于车辆的块在当前帧图像中的对应的块,来跟踪每一辆车;通过当前帧图像中属于某一辆车的块与其它车辆的掩码区域的重叠程度来检测发生遮挡的块,查找发生遮挡的块在前一帧图像中的对应块,通过该对应块与前一帧图像中车辆掩码区域的重叠程度来对发生遮挡的块进行归属判决,从而完成对车辆遮挡的处理。本发明在有遮挡情况下跟踪车辆的方法具有跟踪准确度高和稳定性强的优点。
-
公开(公告)号:CN102831428A
公开(公告)日:2012-12-19
申请号:CN201210227572.4
申请日:2012-06-30
Applicant: 东南大学
Abstract: 一种图像内快速响应矩阵码区域的提取方法,第一步,初始化读入图像,将输入的RGB图像转换到灰度空间;第二步,利用大津法对其进行二值化处理;第三步,利用快速响应矩阵码寻像图形的形态特征:一个矩形中包含两个小矩形,利用这个特征和图像轮廓得到快速响应矩阵码的三个寻像图形的中心点,并且在寻轮廓时,对于每次寻到的一个轮廓,就对其进行判断是否符合规格,并进一步得到快速响应矩阵码的四个顶点实现精确定位。这种方法使得找寻像图形更准确,并且使得需要的存储空间大大减小,实验表明这种方法对普通摄像头采集的图像就能取得很好的效果,实时性高。
-
公开(公告)号:CN102779349A
公开(公告)日:2012-11-14
申请号:CN201210226642.4
申请日:2012-06-30
Applicant: 东南大学
IPC: G06T7/40
Abstract: 本发明是一种基于图像颜色空间特征的雾天检测方法,它包括如下步骤:第一步,通过视频图像或者单幅图像获取背景图片;第二步,对背景图片进行颜色空间转换,提取颜色空间特征:首先对背景图片进行颜色空间转换,从RGB颜色空间转换到HSV颜色空间,然后根据图像包含信息提取出HSV各个分量的特征;第三步,根据判定条件将图像包含天气信息划分为非雾天、小雾天气和大雾天气:首先若满足判定条件1,则为大雾天气,否则继续判定,其次若满足判定条件2,则为非雾天气,否则继续判定,最后若满足判定条件3,则为小雾天气,否则为大雾天气。本发明适用于对高速公路雾天监测,特别是对部分路段团雾突发情况进行预警,保障道路行驶安全。
-
公开(公告)号:CN101819681A
公开(公告)日:2010-09-01
申请号:CN200910263083.2
申请日:2009-12-16
Applicant: 东南大学
Abstract: 本发明公布了一种权值自适应调整的加权平均背景更新方法,本发明对当前帧图像与前一帧图像进行前向帧差计算并二值化,得到前向帧差前景二值图,对当前帧图像与后一帧图像进行后向帧差计算并二值化,得到后向帧差前景二值图,对前向和后向帧差前景二值图执行与操作,得到能够准确区分运动车辆区域与静止背景区域的二值图,最后根据该二值图判断像素所处的区域,对每个像素赋予自适应的权值进行加权平均背景更新。本发明所提供的背景更新方法能够对光照变化和车流变化进行自适应响应,且具有准确性高的优点。
-
公开(公告)号:CN119359544A
公开(公告)日:2025-01-24
申请号:CN202411673676.7
申请日:2024-11-21
Applicant: 东南大学
IPC: G06T3/4053 , G06T3/4046 , G06N3/0464 , G06N3/08 , G06V40/16
Abstract: 本发明公开了一种基于姿态条件约束的人脸超分辨率生成对抗网络及生成方法,至少包括侧脸注意力引导模块、注意力融合变换模块、引导变换子网络、上采样子网络和判别网络,建立统一的生成对抗网络实现人脸超分辨率和姿态矫正任务的联合,在进行人脸姿态矫正的同时复原出真实的高分辨率人脸图像。本发明可以同时实现人脸超分辨重建和姿态矫正,从低分辨率侧面人脸图像中复原出真实的高分辨率正面人脸图像。
-
公开(公告)号:CN114140451B
公开(公告)日:2024-07-23
申请号:CN202111485988.1
申请日:2021-12-07
Applicant: 东南大学
Abstract: 本发明涉及一种基于深度学习的多轨道钢轨定位方法,包括以下步骤:使用安装摄像头的巡检车采集轨道图像,对图像数据集进行人工标注;构建R2CNN深度学习模型,设置合理的锚窗参数,并对模型进行训练;将训练好的模型对图像进行检测,分别得到轴对齐边界框和倾斜边界框的检测结果,并进行初步筛选;对两类边界框检测结果进行修正和融合,即可得到准确、稳定的多轨道钢轨定位结果。本发明可以适用于同时包含垂直和倾斜轨道的道岔路段图像,且能够定位多轨道钢轨区域。
-
公开(公告)号:CN114241458B
公开(公告)日:2024-06-14
申请号:CN202111564360.0
申请日:2021-12-20
Applicant: 东南大学
IPC: G06V20/59 , G06V40/20 , G06V10/80 , G06V10/82 , G06V10/774 , G06V10/764 , G06N3/0455 , G06N3/0442 , G06N3/084 , G06N3/088 , G06N3/0985
Abstract: 本发明公开了一种基于姿态估计特征融合的驾驶员行为识别方法,结合驾驶员人体特征和关键点特征以提高判别力。本发明首先使用YOLO‑V4检测到驾驶员,再通过卷积网络提取驾驶员的身体特征。在模型另一条支路上利用OpenPose显示地学习与驾驶员行为相关的关键点特征。在此基础上,本发明设计一种门控式注意力聚集模块,以充分利用身体特征与关键点特征之间的相互依赖性。此外,本发明应用了在ImageNet数据集上探索出的自动增强策略以进行数据扩充。对比目前现有的驾驶员识别方法,本发明进一步提高驾驶员行为识别准确率,在交通安全领域有重要的应用价值。
-
公开(公告)号:CN117853802A
公开(公告)日:2024-04-09
申请号:CN202410031203.0
申请日:2024-01-09
Applicant: 东南大学
IPC: G06V10/764 , G06V10/82 , G06V10/80 , G06V10/774 , G06V10/74 , G06V10/40 , G06V10/42 , G06T5/90 , G06T5/40 , G06N3/08
Abstract: 本发明公开了一种基于特征交互网络的小样本动车异常检测方法及系统,包括数据采集与整理标注、图像预处理、建立多层次支撑‑查询图像特征交互网络模型并进行模型训练,最终实现动车异常检测。所述多层次支撑‑查询图像特征交互网络模型包括双注意力特征增强模块、特征聚合精炼模块和多分支关系解码器模块;将预处理后的支撑集和查询集图像对输入到多层次特征交互网络中提取多层次特征,support图像特征和其mask与query图像特征进行交互,预测query图像的异常分布图像,将图像与其对应标注的mask图像基于交叉熵损失函数计算损失,基于Adam算法优化模型的参数,反复迭代训练出最优模型,从而输出异常类别的预测结果。
-
公开(公告)号:CN110298257B
公开(公告)日:2023-08-01
申请号:CN201910483000.4
申请日:2019-06-04
Applicant: 东南大学
IPC: G06V20/59 , G06V10/764 , G06V10/82 , G06N3/0464 , G06N3/048 , G06N3/08
Abstract: 本发明提供了一种基于人体多部位特征的驾驶员行为识别方法,包括:建立驾驶员行为识别的图像数据集;构建神经网络模型;训练基于人体多部位特征的驾驶员行为识别模型;对基于人体多部位特征的驾驶员行为识别模型进行测试。本发明结合人体关键点区域与全局区域,利用某些具有判别力的局部区域进行驾驶员行为识别,由于融合人体关键点特征,进一步提高驾驶员行为识别准确率,在交通安全领域有重要的应用价值。
-
公开(公告)号:CN116416649A
公开(公告)日:2023-07-11
申请号:CN202310407317.6
申请日:2023-04-14
Applicant: 东南大学
IPC: G06V40/10 , G06V20/40 , G06V10/62 , G06V10/74 , G06V10/80 , G06V10/82 , G06N3/045 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种基于多尺度分辨率对齐的视频行人重识别方法,包括:构造多尺度的行人视频片段;将不同尺度的视频片段输入到有层次的多分支网络中提取特征;将各个尺度分支输出的特征图在时间维度上连接起来,并利用全局平均池化层来生成最终的视频级特征向量;构造交叉熵损失、三元组损失和相互信息损失来优化多分支网络;重复执行前述步骤直至模型收敛;训练结束之后,利用多分支网络从多尺度的行人视频片段中提取特征向量,并计算待检索行人视频片段的特征向量与候选行人视频片段的特征向量间的欧式距离,最终按照欧式距离从小到大进行排序得到行人重识别结果。本发明充分利用不同空间尺度的行人视频片段中的有效信息,有效提升了识别准确率。
-
-
-
-
-
-
-
-
-