基于改进SOLOv2的校园场景图像分割方法

    公开(公告)号:CN113920411B

    公开(公告)日:2024-06-14

    申请号:CN202111177879.3

    申请日:2021-10-09

    摘要: 本发明公开了一种基于改进SOLOv2的校园场景图像分割方法,包括:步骤1:对待检测图像进行主干网络特征提取以得到对应的多层特征信息;步骤2:将多层特征信息送入到改进后的特征金子塔中进行细化并融合;步骤3:将融合后的信息送入到Head头部进行分析,通过两个并行的子通道,进行类别信息分析和mask实例分割;步骤4:通过矩阵非极大值抑制保留最高置信度的掩码信息以及类别信息,步骤5:将mask特征图映射回原图像上,输出带有特征mask掩码的图像。本发明提供一种基于改进SOLOv2的校园场景图像分割方法,能有效提升了对密集人群情况下的分割精度和召回率,且在面对目标遮挡和物体残缺的情况下,本发明算法的性能明显优先于其他算法。

    基于改进SOLOv2的校园场景图像分割方法

    公开(公告)号:CN113920411A

    公开(公告)日:2022-01-11

    申请号:CN202111177879.3

    申请日:2021-10-09

    IPC分类号: G06V10/80 G06V30/148 G06N3/04

    摘要: 本发明公开了一种基于改进SOLOv2的校园场景图像分割方法,包括:步骤1:对待检测图像进行主干网络特征提取以得到对应的多层特征信息;步骤2:将多层特征信息送入到改进后的特征金子塔中进行细化并融合;步骤3:将融合后的信息送入到Head头部进行分析,通过两个并行的子通道,进行类别信息分析和mask实例分割;步骤4:通过矩阵非极大值抑制保留最高置信度的掩码信息以及类别信息,步骤5:将mask特征图映射回原图像上,输出带有特征mask掩码的图像。本发明提供一种基于改进SOLOv2的校园场景图像分割方法,能有效提升了对密集人群情况下的分割精度和召回率,且在面对目标遮挡和物体残缺的情况下,本发明算法的性能明显优先于其他算法。

    基于传统和深度学习结合的运动目标检测方法

    公开(公告)号:CN113920163B

    公开(公告)日:2024-06-11

    申请号:CN202111176760.4

    申请日:2021-10-09

    IPC分类号: G06T7/246 G06T7/11 G06T7/194

    摘要: 本发明公开了一种基于传统和深度学习结合的运动目标检测方法,包括:步骤一,采用实例分割算法对双目相机采集的道路图像相邻帧进行检测,以将各图像划分为潜在运动目标区域和静止区域;步骤二,分别对各图像中的潜在运动目标区域、静止区域进行特征点提取与匹配;步骤三,基于相机自运动参数确定运动补偿,通过计算重投影误差以对运动状态判断,以基于判断结果完成对图像中运动目标进行标记。本发明公开一种基于传统和深度学习结合的运动目标检测方法,能有效提高算法实时性,同时通过提高自运动参数估计的精度提升检测精度。

    一种基于视觉的智能车环境动态目标检测的方法

    公开(公告)号:CN111814602B

    公开(公告)日:2022-06-17

    申请号:CN202010580747.4

    申请日:2020-06-23

    IPC分类号: G06V20/56 G06V10/26 G06V10/46

    摘要: 本发明公开了一种基于视觉的智能车环境动态目标检测的方法,包括:在智能车移动期间,设置在所述智能车上的双目立体相机通过采集当前的场景图像,得到当前的双目视频序列图像;从所述双目视频序列图像中选取第t时刻图像和t‑1时刻图像,并利用所述第t时刻图像和所述t‑1时刻图像,计算混合光流;根据所述第t时刻图像、所述t‑1时刻图像,计算所述双目立体相机运动背景光流;利用所述混合光流和所述运动背景光流,得到仅由目标运动产生的残差流;通过对所述残差流进行处理,得到独立的运动目标。

    基于判别性视觉属性的零样本识别方法及系统

    公开(公告)号:CN112329884B

    公开(公告)日:2022-06-07

    申请号:CN202011337219.2

    申请日:2020-11-25

    IPC分类号: G06V10/774 G06K9/62 G06N20/20

    摘要: 本发明提供一种基于判别性视觉属性的零样本识别方法及系统,方法包括以下步骤:S1:构建稀疏编码模型,基于原特征域样本数据优化稀疏编码模型得到视觉特征到人工定义属性表示的原特征域变换关系;S2:引入分类错误代价项构建监督字典学习目标模型,提取原特征域判别性视觉属性集合;S3:基于原特征域变换关系及原特征域判别性视觉属性集合,构建目标特征域学习模型,挖掘目标特征域判别性视觉属性;S4:输入包含语义对象的待测图像,通过深度残差网络提取待测图像的深度视觉特征,并优化稀疏编码目标函数,得到待测图像视觉特征的语义属性表示。本发明能解决人工定义属性在识别时导致特征表示语义信息的匮乏问题,增强视觉特征表示的判别能力。

    一种基于视觉的智能车环境动态目标检测的方法

    公开(公告)号:CN111814602A

    公开(公告)日:2020-10-23

    申请号:CN202010580747.4

    申请日:2020-06-23

    IPC分类号: G06K9/00 G06K9/34 G06K9/46

    摘要: 本发明公开了一种基于视觉的智能车环境动态目标检测的方法,包括:在智能车移动期间,设置在所述智能车上的双目立体相机通过采集当前的场景图像,得到当前的双目视频序列图像;从所述双目视频序列图像中选取第t时刻图像和t-1时刻图像,并利用所述第t时刻图像和所述t-1时刻图像,计算混合光流;根据所述第t时刻图像、所述t-1时刻图像,计算所述双目立体相机运动背景光流;利用所述混合光流和所述运动背景光流,得到仅由目标运动产生的残差流;通过对所述残差流进行处理,得到独立的运动目标。

    基于双向扩展随机树的智能车路径规划方法

    公开(公告)号:CN109990796A

    公开(公告)日:2019-07-09

    申请号:CN201910328124.5

    申请日:2019-04-23

    IPC分类号: G01C21/34

    摘要: 本发明公开了一种基于双向扩展随机树的智能车路径规划方法,其包括生成曲线,当曲线上有障碍物时构建起点相反的两棵扩展树;在地图上生成随机点,并查找扩展树距离随机点最近的节点;判断随机点与节点的连线上是否有障碍物;若有,则重新生成随机点,若无,在随机点与节点的连线上取一个新节点;判断最近的节点与新节点之间的连线上是否有障碍物,若有,则重新生成随机点,否则根据障碍物安全距离约束更新节点;之后根据智能车辆最大转向约束及节点,选取节点的父节点和子节点;判断两棵扩展树之间的距离是否小于设定阈值,若大于,则重新生成随机点,否则,根据两扩展树节点反向选取节点到起始点和目标点的路径构成智能车规划路径。