一种基于多尺度融合的快速目标检测方法

    公开(公告)号:CN111738344B

    公开(公告)日:2024-02-02

    申请号:CN202010595268.X

    申请日:2020-06-24

    Abstract: 本发明公开了一种基于多尺度融合的快速目标检测方法,包括:S1:将待检测图像输入Darknet53特征提取器提取待检测图像特征图;S2:将Darknet53特征提取器提取的特征图输入至多特征融合模块;S3:将多特征融合模块获得的特征信息输入至多尺度聚合模块;S4:将多尺度聚合模块获得的特征信息输入至具有空间注意力机制的残差预测模块,输出目标检测结果。本发明所构建的多特征融合模块,通过将可学习的加权参数自适应分配给三个不同的卷积分支,提高目标检测模型的多特征表示能力。检测网络的四条输出分支通过多尺度聚合模块自上而下的增强了网络的多尺度检测能力。在预测模块中使用空间注意力,使网络更好地定位物体的位置信息。

    基于非对称卷积的具有粒度级多尺度特性的车辆检测方法

    公开(公告)号:CN111242127A

    公开(公告)日:2020-06-05

    申请号:CN202010042002.2

    申请日:2020-01-15

    Abstract: 本发明公开了基于非对称卷积的具有粒度级多尺度特性的车辆检测方法,包括以下步骤:步骤S1:通过视频流获取若干包含车辆的图片,制作车辆目标检测数据集,包括训练集和测试集;步骤S2:设计非对称卷积AC单元;步骤S3:将非对称卷积AC单元嵌入Res2Net模块构建具有粒度级多尺度特性的非对称卷积ACB模块;步骤S4:将ACB模块嵌入轻量化模型ShuffleNetV2中构建基于卷积神经网络的车辆目标分类网络ACBNet;步骤S5:利用所制作的车辆目标训练集训练车辆目标分类网络ACBNet;步骤S6:将测试集图片放入分类网络ACBNet进行分类,之后再经过残差预测模块处理获得所预测图像或视频中车辆的类别和位置信息并框出车辆目标。

    行人检测方法
    3.
    发明公开

    公开(公告)号:CN110852272A

    公开(公告)日:2020-02-28

    申请号:CN201911099358.3

    申请日:2019-11-11

    Abstract: 本发明提供了一种行人检测方法,本发明用以解决现有用以解决现有技术中实时性低、多尺度问题检测性能相对较差的问题。特征融合模块的应用使特征图在语义上具有较强的鲁棒性;预测模块中空间注意力机制的应用增强了模型对行人目标的位置检测能力。本发明提供的基于自上而下语义聚合注意力机制的行人检测方法,能在在提高检测准确度的同时提高模型对多尺度目标的检测能力。

    道路表面裂纹检测方法
    4.
    发明公开

    公开(公告)号:CN110751644A

    公开(公告)日:2020-02-04

    申请号:CN201911008828.0

    申请日:2019-10-23

    Abstract: 本发明提供了一种道路表面裂纹检测方法。本发明在确保高水平的像素精确度的同时还提高了检测的速度。本发明克服一现有技术对道路裂纹检测的缺点,提供一种基于图像处理和卷积神经网络相结合的道路道路裂纹检测和分类的方法,通过监督学习,将人工标注好的分割结果作为训练目标,可以从人工标注好的分割结果中学习到更好的代表性特征。

    基于非对称卷积的具有粒度级多尺度特性的车辆检测方法

    公开(公告)号:CN111242127B

    公开(公告)日:2023-02-24

    申请号:CN202010042002.2

    申请日:2020-01-15

    Abstract: 本发明公开了基于非对称卷积的具有粒度级多尺度特性的车辆检测方法,包括以下步骤:步骤S1:通过视频流获取若干包含车辆的图片,制作车辆目标检测数据集,包括训练集和测试集;步骤S2:设计非对称卷积AC单元;步骤S3:将非对称卷积AC单元嵌入Res2Net模块构建具有粒度级多尺度特性的非对称卷积ACB模块;步骤S4:将ACB模块嵌入轻量化模型ShuffleNetV2中构建基于卷积神经网络的车辆目标分类网络ACBNet;步骤S5:利用所制作的车辆目标训练集训练车辆目标分类网络ACBNet;步骤S6:将测试集图片放入分类网络ACBNet进行分类,之后再经过残差预测模块处理获得所预测图像或视频中车辆的类别和位置信息并框出车辆目标。

    行人检测方法
    7.
    发明授权

    公开(公告)号:CN110852272B

    公开(公告)日:2023-03-28

    申请号:CN201911099358.3

    申请日:2019-11-11

    Abstract: 本发明提供了一种行人检测方法,本发明用以解决现有用以解决现有技术中实时性低、多尺度问题检测性能相对较差的问题。特征融合模块的应用使特征图在语义上具有较强的鲁棒性;预测模块中空间注意力机制的应用增强了模型对行人目标的位置检测能力。本发明提供的基于自上而下语义聚合注意力机制的行人检测方法,能在在提高检测准确度的同时提高模型对多尺度目标的检测能力。

    一种基于多尺度融合的快速目标检测方法

    公开(公告)号:CN111738344A

    公开(公告)日:2020-10-02

    申请号:CN202010595268.X

    申请日:2020-06-24

    Abstract: 本发明公开了一种基于多尺度融合的快速目标检测方法,包括:S1:将待检测图像输入Darknet53特征提取器提取待检测图像特征图;S2:将Darknet53特征提取器提取的特征图输入至多特征融合模块;S3:将多特征融合模块获得的特征信息输入至多尺度聚合模块;S4:将多尺度聚合模块获得的特征信息输入至具有空间注意力机制的残差预测模块,输出目标检测结果。本发明所构建的多特征融合模块,通过将可学习的加权参数自适应分配给三个不同的卷积分支,提高目标检测模型的多特征表示能力。检测网络的四条输出分支通过多尺度聚合模块自上而下的增强了网络的多尺度检测能力。在预测模块中使用空间注意力,使网络更好地定位物体的位置信息。

Patent Agency Ranking