-
公开(公告)号:CN114241436A
公开(公告)日:2022-03-25
申请号:CN202111179596.2
申请日:2021-10-09
Abstract: 本发明涉及一种改进色彩空间和搜索窗口的车道线检测方法及系统,基于对车道线区域图像的透视变换,获得车道线区域鸟瞰图,并采用不同色彩空间的不同颜色分量对车道线区域鸟瞰图进行重新融合,再结合窗口滑动方式进行车道线搜索、以及车道线拟合,实现最终车道线的检测;方案采用多种颜色空间中最优通道进行融合,有效克服了光照、阴影,以及黄色车道线检测困难的问题;并且应用窗口搜索方法可以忽略掉重复的计算步骤,有效降低计算量,提高速度;此外,基于透视变换和逆透视变换间相互转化的应用,在透视变换后数据量较少的图像上应用车道线检测所涉及的大量计算,可以有效减少计算量,提高单帧图像的检测速度,满足实时检测的要求。
-
公开(公告)号:CN114241436B
公开(公告)日:2025-04-04
申请号:CN202111179596.2
申请日:2021-10-09
Abstract: 本发明涉及一种改进色彩空间和搜索窗口的车道线检测方法及系统,基于对车道线区域图像的透视变换,获得车道线区域鸟瞰图,并采用不同色彩空间的不同颜色分量对车道线区域鸟瞰图进行重新融合,再结合窗口滑动方式进行车道线搜索、以及车道线拟合,实现最终车道线的检测;方案采用多种颜色空间中最优通道进行融合,有效克服了光照、阴影,以及黄色车道线检测困难的问题;并且应用窗口搜索方法可以忽略掉重复的计算步骤,有效降低计算量,提高速度;此外,基于透视变换和逆透视变换间相互转化的应用,在透视变换后数据量较少的图像上应用车道线检测所涉及的大量计算,可以有效减少计算量,提高单帧图像的检测速度,满足实时检测的要求。
-
公开(公告)号:CN115457518A
公开(公告)日:2022-12-09
申请号:CN202211045364.2
申请日:2022-08-30
Applicant: 淮阴工学院
Abstract: 本发明公开了一种基于姿态感知与几何约束下的驾驶员行为识别方法及系统,首先,采用HRNet对图片中的驾驶员进行姿态估计,获取驾驶员的关节点信息;其次,将视频输入到ResNet50中获取全局特征图,利用关节点的位置获取各个关节点相关的视觉特征;然后,对驾驶员的上半身人体关节点进行解构,同时根据各点的坐标位置获取几何特征;最后,将视觉表观特征与几何特征融合,通过线性层预测相应的行为。本发明克服了传统驾驶员行为检测方法检测准确率低、检测手段单一的问题,大幅提升了在背景复杂、光照变化、视角不一和驾驶员体态变化等情况下的检测能力;同时能够应对复杂环境下对驾驶员人体和关键表征的定位检测;能适应不同时段车辆行驶环境。
-
公开(公告)号:CN115019338A
公开(公告)日:2022-09-06
申请号:CN202210450895.3
申请日:2022-04-27
Applicant: 淮阴工学院
IPC: G06V40/10 , G06V40/20 , G06V20/52 , G06V20/40 , G06V10/82 , G06V10/80 , G06V10/26 , G06V10/22 , G06N3/04 , G06N3/08
Abstract: 本发明设计了一种基于GAMHR‑Net的多人姿态估计方法及系统;首先,用目标检测网络对输入图像或视频进行检测,获取人体位置信息;构建包括一个Stem‑Net模块、四个Stage模块、四个transition模块以及三个GAMBlock模块的GAMHR‑Net网络;将人体位置信息与对应的图像送入GAMHR‑Net网络进行特征提取和特征融合;将得到人体关节点并将关节点在原图像或原视频上展示出来。本发明充分利用现有特征的同时,再结合全局的语义信息,实现了更加准确和鲁棒的姿态预测;通过Stem‑Net结构,利用并行可分离卷积的思想来减少初步特征提取阶段时底层信息的损失;通过GAMBlock模块加强全局空间通道的交互以减少信息的损失,实现了较高的关节点定位精度和召回率。
-
公开(公告)号:CN115147817B
公开(公告)日:2023-06-20
申请号:CN202210686565.4
申请日:2022-06-17
Applicant: 淮阴工学院
IPC: G06V20/59 , G06V40/20 , G06V10/82 , G06V10/764 , G06V10/46 , G06V10/25 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种姿态引导的实例感知网络的驾驶员分心行为识别方法,利用人体检测器检测到人体框,利用人体姿态估计获取具有辨识性的手部相关区域;将人体和手部区域的特征作为实例级别的特征,提出一种实例感知模块充分获取不同层级的上下文语义信息;利用手部相关特征构建双通道交互模块来对关键空间信息进行表征的同时,对视觉特征进行优化;组建成一个多分支的深度神经网络,最后将不同分支的结果进行融合。发明提出的姿态引导的实例感知网络,在一定程度上降低了环境的干扰,准确度高,能辅助驾驶员安全行车,减少交通事故的发生。
-
公开(公告)号:CN116188779A
公开(公告)日:2023-05-30
申请号:CN202310162660.9
申请日:2023-02-24
Applicant: 淮阴工学院
IPC: G06V10/26 , G06V20/70 , G06V20/56 , G06V10/774 , G06V10/40 , G06V10/80 , G06V10/764 , G06V10/82 , G06N3/0464
Abstract: 本发明公开了一种基于UFLane‑Detection的车道线检测方法,采集行车记录仪拍摄的车道线图片,并对图片进行清洗后获得训练集;构建基于UFLane‑Detection的车道线检测模型,主干网络通过下采样,将车道线和背景分离,提取其车道线特征,同时不断压缩图像像素;利用Lane‑Decoder解码器还原图像像素,同时结合全局通道注意力模块,将主干网络提取的特征信息进行进一步的加强;利用Softmax分类器对车道线进一步识别;将训练集输入到车道线检测模型中进行训练,最终模型输出结果再重新缩放回待测图片的原始大小,得到最终的分割结果。本发明能够实现复杂交通场景车道线的识别,具有较高的准确率,具有稳定性好、抗干扰能力强、通用性高,鲁棒性好等优点,能够应用于驾驶辅助系统或者无人驾驶系统中。
-
公开(公告)号:CN113743190A
公开(公告)日:2021-12-03
申请号:CN202110789523.9
申请日:2021-07-13
Applicant: 淮阴工学院
Abstract: 本发明公开了一种基于BiHR‑Net和YOLOv3‑head的火焰检测方法及系统,首先,构建火焰检测模型,模型中主干网络使用两次下采样的方式获得输入图像小分辨率特征,降低检测模型的参数量;然后提出了一种特征提取与特征融合的方法BiHR‑Net,对输入的特征图进行两次卷积后的特征图,进行上采样和下采样生成两个子路线获取额外的特征,并对在BiHR‑Net的最后对三个尺度的特征进行融合,达到提高检测的效果的目的;将BiHR‑Net获得的特征,输入YOLO‑head网络中进行预测和回归;最后,使用数据集对火焰检测模型进行训练,获得用于火焰检测的检测器。本发明的火焰检测速度达到112帧/s,可对火焰进行快速检测并预警,且模型具有较好的鲁棒性。
-
公开(公告)号:CN115457518B
公开(公告)日:2024-01-26
申请号:CN202211045364.2
申请日:2022-08-30
Applicant: 淮阴工学院
Abstract: 本发明公开了一种基于姿态感知与几何约束下的驾驶员行为识别方法及系统,首先,采用HRNet对图片中的驾驶员进行姿态估计,获取驾驶员的关节点信息;其次,将视频输入到ResNet50中获取全局特征图,利用关节点的位置获取各个关节点相关的视觉特征;然后,对驾驶员的上半身人体关节点进行解构,同时根据各点的坐标位置获取几何特征;最后,将视觉表观特征与几何特征融合,通过线性层预测相应的行为。本发明克服了传统驾驶员行为检测方法检测准确率低、检测手段单一的问题,大幅提升了在背景复杂、光照变化、视角不一和驾驶员体态变化等情况下的检测能力;同时能够应对复杂环境(56)对比文件CN 107358149 A,2017.11.17CN 113269111 A,2021.08.17CN 107392131 A,2017.11.24CN 110059598 A,2019.07.26CN 113486784 A,2021.10.08CN 112784765 A,2021.05.11CN 112507990 A,2021.03.16CN 113989927 A,2022.01.28刘倩等.基于图像的动作识别与评价方法.《微处理机》.2022,(第5期),第44-48页.L. Song et al.Action Recognition inVideo Using Human Keypoint Detection.《ICCSE》.2022,第465-470页.赵雄.基于深度学习的驾乘人员异常行为识别算法研究《.中国优秀硕士学位论文全文数据库 工程科技Ⅱ辑》.2021,第第2021年卷卷(第第9期期),C035-93.
-
公开(公告)号:CN113743190B
公开(公告)日:2023-12-22
申请号:CN202110789523.9
申请日:2021-07-13
Applicant: 淮阴工学院
IPC: G06V20/40 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/045 , G06V10/766 , G06N3/084
Abstract: 本发明公开了一种基于BiHR‑Net和YOLOv3‑head的火焰检测方法及系统,首先,构建火焰检测模型,模型中主干网络使用两次下采样的方式获得输入图像小分辨率特征,降低检测模型的参数量;然后提出了一种特征提取与特征融合的方法BiHR‑Net,对输入的特征图进行两次卷积后的特征图,进行上采样和下采样生成两个子路线获取额外的特征,并对在BiHR‑Net的最后对三个尺度的特征进行融合,达到提高检测的效果的目的;将BiHR‑Net获得的特征,输入YOLO‑head网络中进行预测和回归;最后,使用数据集对火焰检测模型进行训练,获得用于火焰检测的检测器。本发明的火焰检测速度达到112帧/s,可对火焰进行快速检测并预警,且模型具有较好的鲁棒性。
-
公开(公告)号:CN115272987B
公开(公告)日:2023-08-22
申请号:CN202210794742.0
申请日:2022-07-07
Applicant: 淮阴工学院
Abstract: 本发明公开了一种基于MSA‑Yolov5的恶劣天气下车辆检测方法及装置,首先,将DAWN数据集划分为训练集与测试集,并进行预处理;其次,构建MSA‑Yolov5模型,包括Backbone模块、Neck模块以及Prediction模块;其中Backbone模块为MSA‑ResBlock,包括Focus网络、SCBAM模块和ResBlock模块;首先用SCBAM模块对恶劣天气下,模糊场景中的车辆、行人目标进行特征强化;然后通过多尺度特征融合,使用GIoU算法作为边界框损失函数,使用FocalLoss降低预测框内正负样本的不平衡问题;最后检测出恶劣天气下车辆、行人的位置信息和标签信息,并得出检测的精确度。本发明具有图像校正的计算量减小、检测流程精简、网络的识别精度高的特点,可以对恶劣天气下的车辆、行人进行检测,并且具有检测速度快、模型小、准确率高的优点。
-
-
-
-
-
-
-
-
-