一种基于改进的YOLO模型的车位状态识别方法

    公开(公告)号:CN115953743A

    公开(公告)日:2023-04-11

    申请号:CN202211510564.0

    申请日:2022-11-29

    Abstract: 本发明公开一种基于改进的YOLO模型的车位状态识别方法,包括:构建停车位检测数据集,并划分训练集和测试集;构建改进的YOLOV4‑tiny网络模型,其中,将YOLOV4‑tiny网络模型原来的主干网络CSPDarknet53‑tiny替换为轻量化网络mobilenetv3,在特征金字塔FPN前加入SE注意力机制,将Mish激活函数替换原来的Leaky ReLU激活函数,将EiOU损失函数替换原来的CiOU损失函数,SE注意力机制包括挤压模块、激励模块和融合模块;采用训练集对改进的YOLOV4‑tiny网络模型进行训练;将待测图像输入训练得到的改进的YOLOV4‑tiny网络模型中,得到车位状态识别结果。本发明能在准确识别车位状态的前提下提高检测的速度。

    一种基于YOLOv5模型优化的车辆检测与识别方法

    公开(公告)号:CN116311154A

    公开(公告)日:2023-06-23

    申请号:CN202310147319.6

    申请日:2023-02-20

    Abstract: 本发明提出一种基于YOLOv5模型优化的车辆检测与识别方法,包括:步骤S1、获取若干张包含不同车辆类型的图片,并对图片进行标注,得到数据集;步骤S2、对标注好的图片数据进行预处理操作,将预处理好的图片数据输入到YOLOv5模型的骨干网络中,骨干网络能够对图像上的特征信息通过卷积网络进行特征提取;步骤S3、根据所建立的数据集优化YOLOv5车辆检测模型,其中,YOLOv5车辆检测模型相较于现有YOLOv5模型的改进包括:将骨干网络中的CSP1_X模块替换为ShuffleNetv2模块,将头部模块Bounding Box损失函数的DIOU_Loss替换为CIOU_Loss;步骤S4、将待检测图像数据输入到优化后的YOLOv5车辆检测模型中,得到检测结果。使用优化的YOLOv5检测方法可以直接端到端的输出所检测的物体的类别概率和位置,可以达到较高精度。

    一种泊车场景下精确提取视觉SLAM静态特征的方法

    公开(公告)号:CN115439743A

    公开(公告)日:2022-12-06

    申请号:CN202211028947.4

    申请日:2022-08-23

    Abstract: 本发明公开一种泊车场景下精确提取视觉SLAM静态特征的方法,对于停车场场景有行人和车辆等动态物体的情况,使用多线程并行,利用目标检测模型将车辆与行人框出形成mask掩码;同时摒弃目前VSLAM系统常用的手工特征,选择使用改进的基于深度学习特征提取模型SuperPoint进行特征提取,让特征提取的精度更高更鲁棒,得出图像帧的关键点与描述子,根据生成的mask掩码筛选并剔除动态物体框中的特征点,利用剩余的精准静态特征点进行特征匹配和相机位姿估计,后续即可执行跟踪、建图和回环检测线程,完成整个SLAM工作。使用本方法降低了记忆泊车场景中误匹配的概率,可有效解决SLAM算法难以剔除动态特征点、场景识别精度低的缺陷,提高了记忆泊车的可靠性。

Patent Agency Ranking