一种基于图像颜色空间特征的雾天检测方法

    公开(公告)号:CN102779349A

    公开(公告)日:2012-11-14

    申请号:CN201210226642.4

    申请日:2012-06-30

    Applicant: 东南大学

    Abstract: 本发明是一种基于图像颜色空间特征的雾天检测方法,它包括如下步骤:第一步,通过视频图像或者单幅图像获取背景图片;第二步,对背景图片进行颜色空间转换,提取颜色空间特征:首先对背景图片进行颜色空间转换,从RGB颜色空间转换到HSV颜色空间,然后根据图像包含信息提取出HSV各个分量的特征;第三步,根据判定条件将图像包含天气信息划分为非雾天、小雾天气和大雾天气:首先若满足判定条件1,则为大雾天气,否则继续判定,其次若满足判定条件2,则为非雾天气,否则继续判定,最后若满足判定条件3,则为小雾天气,否则为大雾天气。本发明适用于对高速公路雾天监测,特别是对部分路段团雾突发情况进行预警,保障道路行驶安全。

    权值自适应调整的加权平均背景更新方法

    公开(公告)号:CN101819681A

    公开(公告)日:2010-09-01

    申请号:CN200910263083.2

    申请日:2009-12-16

    Applicant: 东南大学

    Abstract: 本发明公布了一种权值自适应调整的加权平均背景更新方法,本发明对当前帧图像与前一帧图像进行前向帧差计算并二值化,得到前向帧差前景二值图,对当前帧图像与后一帧图像进行后向帧差计算并二值化,得到后向帧差前景二值图,对前向和后向帧差前景二值图执行与操作,得到能够准确区分运动车辆区域与静止背景区域的二值图,最后根据该二值图判断像素所处的区域,对每个像素赋予自适应的权值进行加权平均背景更新。本发明所提供的背景更新方法能够对光照变化和车流变化进行自适应响应,且具有准确性高的优点。

    基于姿态条件约束的人脸超分辨率生成对抗网络及生成方法

    公开(公告)号:CN119359544A

    公开(公告)日:2025-01-24

    申请号:CN202411673676.7

    申请日:2024-11-21

    Applicant: 东南大学

    Inventor: 路小波 木铭浩

    Abstract: 本发明公开了一种基于姿态条件约束的人脸超分辨率生成对抗网络及生成方法,至少包括侧脸注意力引导模块、注意力融合变换模块、引导变换子网络、上采样子网络和判别网络,建立统一的生成对抗网络实现人脸超分辨率和姿态矫正任务的联合,在进行人脸姿态矫正的同时复原出真实的高分辨率人脸图像。本发明可以同时实现人脸超分辨重建和姿态矫正,从低分辨率侧面人脸图像中复原出真实的高分辨率正面人脸图像。

    一种基于深度学习的多轨道钢轨定位方法

    公开(公告)号:CN114140451B

    公开(公告)日:2024-07-23

    申请号:CN202111485988.1

    申请日:2021-12-07

    Applicant: 东南大学

    Abstract: 本发明涉及一种基于深度学习的多轨道钢轨定位方法,包括以下步骤:使用安装摄像头的巡检车采集轨道图像,对图像数据集进行人工标注;构建R2CNN深度学习模型,设置合理的锚窗参数,并对模型进行训练;将训练好的模型对图像进行检测,分别得到轴对齐边界框和倾斜边界框的检测结果,并进行初步筛选;对两类边界框检测结果进行修正和融合,即可得到准确、稳定的多轨道钢轨定位结果。本发明可以适用于同时包含垂直和倾斜轨道的道岔路段图像,且能够定位多轨道钢轨区域。

    一种基于姿态估计特征融合的驾驶员行为识别方法

    公开(公告)号:CN114241458B

    公开(公告)日:2024-06-14

    申请号:CN202111564360.0

    申请日:2021-12-20

    Applicant: 东南大学

    Abstract: 本发明公开了一种基于姿态估计特征融合的驾驶员行为识别方法,结合驾驶员人体特征和关键点特征以提高判别力。本发明首先使用YOLO‑V4检测到驾驶员,再通过卷积网络提取驾驶员的身体特征。在模型另一条支路上利用OpenPose显示地学习与驾驶员行为相关的关键点特征。在此基础上,本发明设计一种门控式注意力聚集模块,以充分利用身体特征与关键点特征之间的相互依赖性。此外,本发明应用了在ImageNet数据集上探索出的自动增强策略以进行数据扩充。对比目前现有的驾驶员识别方法,本发明进一步提高驾驶员行为识别准确率,在交通安全领域有重要的应用价值。

    基于特征交互网络的小样本动车异常检测方法及系统

    公开(公告)号:CN117853802A

    公开(公告)日:2024-04-09

    申请号:CN202410031203.0

    申请日:2024-01-09

    Applicant: 东南大学

    Abstract: 本发明公开了一种基于特征交互网络的小样本动车异常检测方法及系统,包括数据采集与整理标注、图像预处理、建立多层次支撑‑查询图像特征交互网络模型并进行模型训练,最终实现动车异常检测。所述多层次支撑‑查询图像特征交互网络模型包括双注意力特征增强模块、特征聚合精炼模块和多分支关系解码器模块;将预处理后的支撑集和查询集图像对输入到多层次特征交互网络中提取多层次特征,support图像特征和其mask与query图像特征进行交互,预测query图像的异常分布图像,将图像与其对应标注的mask图像基于交叉熵损失函数计算损失,基于Adam算法优化模型的参数,反复迭代训练出最优模型,从而输出异常类别的预测结果。

    一种基于人体多部位特征的驾驶员行为识别方法

    公开(公告)号:CN110298257B

    公开(公告)日:2023-08-01

    申请号:CN201910483000.4

    申请日:2019-06-04

    Applicant: 东南大学

    Abstract: 本发明提供了一种基于人体多部位特征的驾驶员行为识别方法,包括:建立驾驶员行为识别的图像数据集;构建神经网络模型;训练基于人体多部位特征的驾驶员行为识别模型;对基于人体多部位特征的驾驶员行为识别模型进行测试。本发明结合人体关键点区域与全局区域,利用某些具有判别力的局部区域进行驾驶员行为识别,由于融合人体关键点特征,进一步提高驾驶员行为识别准确率,在交通安全领域有重要的应用价值。

    一种基于多尺度分辨率对齐的视频行人重识别方法

    公开(公告)号:CN116416649A

    公开(公告)日:2023-07-11

    申请号:CN202310407317.6

    申请日:2023-04-14

    Applicant: 东南大学

    Abstract: 本发明公开了一种基于多尺度分辨率对齐的视频行人重识别方法,包括:构造多尺度的行人视频片段;将不同尺度的视频片段输入到有层次的多分支网络中提取特征;将各个尺度分支输出的特征图在时间维度上连接起来,并利用全局平均池化层来生成最终的视频级特征向量;构造交叉熵损失、三元组损失和相互信息损失来优化多分支网络;重复执行前述步骤直至模型收敛;训练结束之后,利用多分支网络从多尺度的行人视频片段中提取特征向量,并计算待检索行人视频片段的特征向量与候选行人视频片段的特征向量间的欧式距离,最终按照欧式距离从小到大进行排序得到行人重识别结果。本发明充分利用不同空间尺度的行人视频片段中的有效信息,有效提升了识别准确率。

    面向顶视鱼眼视觉任务的双曲空间可变形卷积方法

    公开(公告)号:CN115731126A

    公开(公告)日:2023-03-03

    申请号:CN202211433024.7

    申请日:2022-11-16

    Applicant: 东南大学

    Abstract: 本发明公开了一种面向顶视鱼眼视觉任务的双曲空间可变形卷积方法,方法旨在解决顶视鱼眼视觉任务中卷积神经网络对畸变特征表征能力不足的问题。本发明提出了基于双曲空间中庞加莱球的可变形卷积方法,该方法将顶视鱼眼特征嵌入到图神经网络后将其映射到庞加莱球空间,在庞加莱球空间中进行图卷积神经网络实现特征信息更新后,再构造庞加莱超平面并计算特征到超平面的距离作为可变形卷积的参数。该卷积方法使得卷积核可以自适应变形,改进了卷积核从顶视鱼眼图像中畸变对象提取相似特征的能力,极大提高了卷积神经网络在顶视鱼眼视觉检测和分割任务中的准确率。

    一种基于卷积神经网络的遥感图像分类方法

    公开(公告)号:CN112132205B

    公开(公告)日:2022-11-15

    申请号:CN202010987920.2

    申请日:2020-09-18

    Applicant: 东南大学

    Abstract: 本发明公开了一种基于卷积神经网络的遥感图像分类方法。本发明提出的卷积神经网络主要包括三个模块:主干网络模块,多尺度融合模块和分类头模块。其中主干网络模块把输入的RGB遥感图像变为不同分辨率的特征图;多尺度融合模块让主干网络产生的特征图之间进行多尺度融合,进一步提取各分辨率特征图中的语义信息;在分类头模块中,高分辨率的特征图被下采样至最低分辨率的特征图,然后将特征图送入池化层与分类器中,得到分类结果。本发明还在卷积神经网络中引入了空间和通道维度的注意力机制,使得分类结果更加准确。本发明公开的分类方法在一个名叫USTC_SmokeRS的公开遥感数据集上取得了迄今最高的分类精度95.25%。

Patent Agency Ranking