基于卷积神经网络的复杂背景下柔性易变形物体识别方法

    公开(公告)号:CN116206301A

    公开(公告)日:2023-06-02

    申请号:CN202210890858.4

    申请日:2022-07-27

    Applicant: 东南大学

    Abstract: 本发明公开了一种基于卷积神经网络的复杂背景下柔性易变形物体识别方法,涉及视觉图像的自动化处理和机器学习领域,解决了由于复杂背景干扰或待识别对象易变形而导致识别率低的问题,其技术方案要点是通过尺寸缩放、移动旋转、色彩变换、背景变更、噪声模拟、人为遮挡、预变形等图像处理技术对原有图像样本进行数据增强,然后将训练图像数据集输入卷积神经网络进行训练,使神经网络“自主学会”复杂背景下柔性物体的识别;与已有通过人为提取图像特征再进行机器学习或建立模型库进行比对识别等技术相比,本申请提出的方法极大减少了神经网络模型对训练数据集样本量的要求,且无需建立物理模型,自动化程度高,适用范围广,即使在处理复杂的柔性易变形物体时也能取得极高的识别精度。

    一种基于参考区域二值化结果的图像轮廓提取方法

    公开(公告)号:CN115187790B

    公开(公告)日:2025-05-16

    申请号:CN202210744151.2

    申请日:2022-06-27

    Applicant: 东南大学

    Abstract: 本发明公开了一种基于参考区域二值化结果的图像轮廓提取方法,涉及图像处理技术领域,解决了受复杂环境背景影响造成主体目标轮廓提取困难的问题,其技术方案要点是在预先确定待识别对象位置的情况下,以该位置为核心划定参考区域,根据参考区域二值化结果,确定整幅图像的二值化结果。该方法适用于主体目标唯一且连续、位置确定,同时该目标在整幅图像中具有一定面积占比的情况;与已有的整幅图像直接二值化或根据纹理特征提取轮廓的方法相比较,该方法实现简单且高效,可有效减少背景光变化与周围环境干扰对轮廓提取的影响。

    一种基于参考区域二值化结果的图像轮廓提取方法

    公开(公告)号:CN115187790A

    公开(公告)日:2022-10-14

    申请号:CN202210744151.2

    申请日:2022-06-27

    Applicant: 东南大学

    Abstract: 本发明公开了一种基于参考区域二值化结果的图像轮廓提取方法,涉及图像处理技术领域,解决了受复杂环境背景影响造成主体目标轮廓提取困难的问题,其技术方案要点是在预先确定待识别对象位置的情况下,以该位置为核心划定参考区域,根据参考区域二值化结果,确定整幅图像的二值化结果。该方法适用于主体目标唯一且连续、位置确定,同时该目标在整幅图像中具有一定面积占比的情况;与已有的整幅图像直接二值化或根据纹理特征提取轮廓的方法相比较,该方法实现简单且高效,可有效减少背景光变化与周围环境干扰对轮廓提取的影响。

    一种基于深度神经网络的飞行汽车的姿态控制方法及系统

    公开(公告)号:CN119781517A

    公开(公告)日:2025-04-08

    申请号:CN202411951020.7

    申请日:2024-12-27

    Applicant: 东南大学

    Abstract: 本发明公开一种基于深度神经网络的飞行汽车的姿态控制方法及系统,属于飞行汽车计算机视觉领域;一种基于深度神经网络的飞行汽车的姿态控制方法包括:构建飞行汽车动力学模型;针对飞行汽车的飞行特性,构建网络模型来预测偏转角和碰撞概率;基于飞行汽车动力学模型与网络模型预测的偏转角和碰撞概率,使用级联控制技术设计对应的控制策略,来控制飞行汽车的姿态。本发明利用深度神经网络模型精准预测飞行汽车的偏转角和碰撞概率,并将其与飞行汽车的动力学模型相结合,从而生成更精准、更鲁棒的控制策略。

    一种鲁棒的飞行汽车空地目标匹配方法及系统

    公开(公告)号:CN119762538A

    公开(公告)日:2025-04-04

    申请号:CN202411951009.0

    申请日:2024-12-27

    Applicant: 东南大学

    Abstract: 本发明公开一种鲁棒的飞行汽车空地目标匹配方法及系统,属于飞行汽车计算机视觉领域;目标匹配方法包括:接收飞行汽车地面行驶模式与飞行模式的图像;基于YOLOv5s网络,引入CA注意力机制并改进损失函数,来对接收的图像进行检测;针对检测结果,进行基于DeepSORT算法的目标跟踪处理,并对跟踪结果进行重识别预处理,获得待检测数据集;针对目标图像与待检测数据集,进行基于FastReID算法的目标重识别处理;对重识别结果进行余弦相似度计算匹配,并进行再跟踪;本发明将飞行视角与地面行驶视角的信息进行融合,显著提高了跟踪的准确度和鲁棒性,实现了双视角下对于同一目标图像的准确定位与跟踪。

    基于摩尔邻域追踪算法和Gabor滤波器的轮廓图像提取方法

    公开(公告)号:CN115272704A

    公开(公告)日:2022-11-01

    申请号:CN202210889506.7

    申请日:2022-07-27

    Applicant: 东南大学

    Abstract: 本发明公开了一种基于摩尔邻域追踪算法和Gabor滤波器的轮廓图像提取方法,解决了摩尔邻域追踪算法在背景复杂纹理时轮廓提取困难而Gabor滤波器在主体目标与背景纹理接近情况下识别率低的问题,其技术特点是先采用摩尔邻域追踪算法进行图像内主体目标的轮廓提取,根据整幅图像内所识别物体的数目预测轮廓提取效果,如果提取效果欠佳,则先采用Gabor滤波器去除复杂背景,再应用摩尔邻域追踪算法提取主体目标的精细轮廓。该方法适用于待识别主体目标与背景在颜色、光强、纹理等任一特征维度上有所差异的平面图像处理;与已有方法相比,本发明提出的方法轮廓提取效果好,通用性强,适用范围广,不易受到环境光与复杂背景的影响。

Patent Agency Ranking