-
公开(公告)号:CN102902945B
公开(公告)日:2015-04-15
申请号:CN201210370668.6
申请日:2012-09-28
Applicant: 南京汇兴博业数字设备有限公司 , 东南大学
IPC: G06K7/10
Abstract: 一种基于快速响应矩阵码外轮廓的畸变校正方法,第一步,初始化读入图像,将输入的图像转换到灰度空间;第二步,利用大津法对灰度图像进行二值化处理;第三步,对图像进行形态学处理;第四步,在形态学处理完后的图像中寻找快速响应矩阵码所在图像的轮廓;第五步,对图像进行霍夫变换,得到快速响应矩阵码的四条边缘直线;第六步,对图像进行透视变换校正原始畸变图像。本发明采用图像处理的方式将畸变图像进行扭正,实验结果表明,该方法效果比较好。
-
公开(公告)号:CN102842116A
公开(公告)日:2012-12-26
申请号:CN201210227632.2
申请日:2012-06-30
Applicant: 南京汇兴博业数字设备有限公司 , 东南大学
IPC: G06T5/00
Abstract: 一种图像内快速响应矩阵码的光照均衡处理方法,第一步,初始化读入图像,将输入的RGB图像转换到灰度空间;第二步,对灰度图像进行光照均衡处理,将不均匀光照图像分割成若干子块,然后计算每个子块内的背景光照值,通过相邻的几个子块的背景光照值插值出子块内部每个点的背景光照值,再根据每个点的背景光照值,自适应的调整它的灰度值,消除原图像中存在的不均匀光照情况,最后利用大津法对图像进行二值化处理。用这种方法对光照不均的快速响应矩阵码图像进行处理能够得到很好的效果。
-
公开(公告)号:CN102842116B
公开(公告)日:2014-12-31
申请号:CN201210227632.2
申请日:2012-06-30
Applicant: 南京汇兴博业数字设备有限公司 , 东南大学
IPC: G06T5/00
Abstract: 一种图像内快速响应矩阵码的光照均衡处理方法,第一步,初始化读入图像,将输入的RGB图像转换到灰度空间;第二步,对灰度图像进行光照均衡处理,将不均匀光照图像分割成若干子块,然后计算每个子块内的背景光照值,通过相邻的几个子块的背景光照值插值出子块内部每个点的背景光照值,再根据每个点的背景光照值,自适应的调整它的灰度值,消除原图像中存在的不均匀光照情况,最后利用大津法对图像进行二值化处理。用这种方法对光照不均的快速响应矩阵码图像进行处理能够得到很好的效果。
-
公开(公告)号:CN102902945A
公开(公告)日:2013-01-30
申请号:CN201210370668.6
申请日:2012-09-28
Applicant: 南京汇兴博业数字设备有限公司 , 东南大学
IPC: G06K7/10
Abstract: 一种基于快速响应矩阵码外轮廓的畸变校正方法,第一步,初始化读入图像,将输入的图像转换到灰度空间;第二步,利用大津法对灰度图像进行二值化处理;第三步,对图像进行形态学处理;第四步,在形态学处理完后的图像中寻找快速响应矩阵码所在图像的轮廓;第五步,对图像进行霍夫变换,得到快速响应矩阵码的四条边缘直线;第六步,对图像进行透视变换校正原始畸变图像。本发明采用图像处理的方式将畸变图像进行扭正,实验结果表明,该方法效果比较好。
-
公开(公告)号:CN114882430B
公开(公告)日:2024-06-11
申请号:CN202210465142.X
申请日:2022-04-29
Applicant: 东南大学
IPC: G06V20/52 , G06V10/80 , G06V10/82 , G06N3/0455 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种基于Transformer的轻量化早期火灾检测方法,包括建立室内外多场景火灾初期图像样本数据集;设计基于Transformer的轻量化主干网络,在Transformer结构中引入线性增强注意力机制,并通过序列与图像的转换和深度可分离卷积,将局部性引入前馈网络中,实现对图像的全局和局部特征处理,并通过逆残差块进行下采样,得到不同分辨率的特征图;通过特征加强和多尺度特征融合结构进一步加强特征提取,最终在混合后的特征图中进行检测,得到火焰目标检测结果。本发明结合了Transformer和卷积神经网络的优势,在优化特征提取的同时,减少了网络的参数和计算量,构建了轻量的检测模型,在保证较高检测精度的同时,实现了较快的检测速度,可以较好地实现多场景火灾早期目标的检测。
-
公开(公告)号:CN110503014B
公开(公告)日:2023-04-07
申请号:CN201910728917.6
申请日:2019-08-08
Applicant: 东南大学
IPC: G06V20/52 , G06V10/764 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种基于多尺度掩码感知回馈卷积神经网络的人数统计方法,包括如下步骤:(1)搜集制作人数统计数据库;(2)生成训练和测试样本;(3)对训练和测试集的样本进行数据预处理;(4)构建人数统计的深度网络模型;(5)将生成的训练样本送入构建好的深度网络模型进行训练,通过Adam优化方法对网络的参数进行优化;(6)测试深度网络模型。本发明使用了一个多任务学习的策略来构建人数统计网络,网络将掩膜估计分支的结果,融合到图片特征中,而后获得鲁棒的人数统计模型;使用了一个简单的融合策略和一个基于空洞卷积的多尺度学习策略,实现了较为准确和稳定的检测结果,这避免了应用中复杂的配置以及内存消耗。
-
公开(公告)号:CN110135327B
公开(公告)日:2023-04-07
申请号:CN201910391169.7
申请日:2019-05-11
Applicant: 东南大学
IPC: G06V20/59 , G06V10/774 , G06V10/764 , G06V10/84 , G06V10/82 , G06N3/0464 , G06N3/048 , G06N3/047 , G06N3/08
Abstract: 本发明设计了一种基于多区域特征学习模型的驾驶员行为识别方法,涉及计算机视觉中的行为识别领域。本发明结合图片多个有判别力的区域,比如手、方向盘、头等局部区域,与整体图片相结合作为驾驶员行为识别的依据。本发明在RCNN模型的基础上,使用Bing算法用于区域生成,测出图片中多个具有判别力的局部区域,随后将局部区域与整体图片分别送入卷积神经网络模型中提取相关特征,最后将特征融合进行行为分类。本发明所设计的网络可以高效快速地提取驾驶员行为的多区域特征,进一步提高驾驶员行为识别准确率。发明在交通安全领域有重要的应用价值。
-
公开(公告)号:CN109064396B
公开(公告)日:2023-04-07
申请号:CN201810666177.3
申请日:2018-06-22
Applicant: 东南大学
IPC: G06T3/40
Abstract: 本发明公开了一种基于深度成分学习网络的单幅图像超分辨率重建方法,包括:扩充训练样本图像并进行区域抽取以及退化操作,得到对应的高分辨率和低分辨率图像训练集;构建一个具有成分学习结构的深层网络,该网络先对输入的低分辨率图像进行全局成分分解,再利用从中提取的残差成分预测其在高分辨率空间的对应图像;在训练集上使用批处理随机梯度下降法和反向传播算法对构建的深度成分网络进行迭代训练,得到权值优化后的模型;利用训练好的成分网络重建低分辨率图像;将重建结果恢复到原先的彩色空间,得到超分辨率重建的最终输出。本发明方法不仅能够提升重建后超分辨率图像的质量,还能提高模型的运算速度。
-
公开(公告)号:CN115457270A
公开(公告)日:2022-12-09
申请号:CN202211082600.8
申请日:2022-09-06
Applicant: 东南大学
Abstract: 本发明公开了一种基于形状引导的轨道扣件图像分割方法,具体步骤包括S1:获取轨道扣件图像;S2:从所有标签图像中获取1张左侧形状图像和1张右侧形状图像;S3:将形状图像与对应方向的扣件图像配对;S4:将扣件图像和配对的形状图像输入分割模型,迭代训练分割模型直到满足迭代终止条件,得到训练完成的分割模型;S5:获得分割结果。本发明提供了用于轨道扣件图像快速、准确分割的方法,改善了复杂环境下轨道扣件图像难以准确分割的问题,极大提高了轨道扣件图像分割的效率,具有重要的实际应用意义。
-
公开(公告)号:CN113506269B
公开(公告)日:2022-11-18
申请号:CN202110786295.X
申请日:2021-07-12
Applicant: 东南大学
IPC: G06T7/00 , G06T7/73 , G01B11/00 , G06V10/764 , G06V10/80 , G06V10/774 , G06V10/77 , G06V10/82 , G06N3/08
Abstract: 本发明涉及一种基于深度学习的道岔与非道岔轨道紧固件定位方法,包括以下步骤:使用携带高清相机的巡检车获得轨道图像,并对图像数据集进行人工标注;构建改进的FasterR‑CNN深度学习模型,模型进行了多尺度特征融合、添加注意力模块等优化;根据标注的待检测目标的实际尺寸,修改模型中的预定义锚框;对改进的FasterR‑CNN模型进行训练,并选择最优模型;将待检测图像输入训练好的模型即可得到精确、稳定的紧固件定位结果。本发明可以适用于道岔路段与非道岔路段场景的图像,能够同时对多种类型的紧固件进行准确的定位检测。
-
-
-
-
-
-
-
-
-