基于类Haar和AdaBoost分类器的快速增量学习方法

    公开(公告)号:CN101937510A

    公开(公告)日:2011-01-05

    申请号:CN201010280839.7

    申请日:2010-09-14

    Abstract: 本发明提供一种基于类Haar和AdaBoost分类器的快速增量学习方法,属于图像检测技术领域。本发明对于新增加的未正确识别的训练样本集,在不损失已有学习效果的前提下,增加一些关键的类Haar特征信息,而不是重新寻找关键类Haar特征信息,以提高训练的速度。本发明利用所提出的增量学习方法较好地解决了快速提升基于类Haar特征和AdaBoost分类器方法的识别性能问题,将其应用于车辆图像检测实验,与传统增量学习方法相比,在两者提升识别性能相近的情形下,明显减少了学习机的学习时间。

    一种基于伪框引导的边界框细化定向目标检测方法

    公开(公告)号:CN119273900A

    公开(公告)日:2025-01-07

    申请号:CN202411642287.8

    申请日:2024-11-18

    Abstract: 本发明公开了一种基于伪框引导的边界框细化定向目标检测方法,包括:1、将图像输入骨干网络和金字塔网络,提取多尺度特征图。2、根据真实边界框的尺度大小,将其划分到对应的特征层级上,通过可变形卷积学习代表点生成自适应点集。3、生成的代表点使用评估模块(APAA)对代表点进行评估和动态分配,并输入伪框引导边界框细化模块(PGBR)进一步优化。4、使用RRoI特征提取器提取特征并对其进行编码,预测对象类别概率和细化预测边界框。本发明通过边界框细化模块的加入,可以更好的实现边界框定位的效果;同时使用了不同的边界框表示方式,这样可以有效的定位和标识边界框,解决了传统边界框表示中的边界不连续问题。

    一种DAMDNet-EKF算法的无人机目标跟踪方法

    公开(公告)号:CN114494339B

    公开(公告)日:2024-07-12

    申请号:CN202111639385.2

    申请日:2021-12-29

    Inventor: 于倩倩 郑钰辉

    Abstract: 本发明公开了一种DAMDNet‑EKF算法的无人机目标跟踪方法,包括以下步骤:步骤1、采集视频帧,通过预设的跟踪模型,根据初始的视频帧训练边界框回归模型;其中,所述跟踪模型是基于DAMDNet的神经网络模型构建,并已经过预训练和初始化;步骤2、除去初始的视频帧,利用剩余的视频帧作为跟踪模型输入,得到视频帧的目标边界框以及与目标边界框对应的目标得分;步骤3、若步骤2得到的目标得分小于预设值,则对所述跟踪模型进行更新;若步骤2得到的目标得分不小于预设值,则使用边界框回归模型调整最优的目标边界框并对所述跟踪模型进行更新。本发明有效地解决了无人机跟踪算法容易跟踪失败及实时性较差的问题。

    一种基于光谱信息过滤的可见光红外行人重识别方法及系统

    公开(公告)号:CN117935172B

    公开(公告)日:2024-06-14

    申请号:CN202410325387.1

    申请日:2024-03-21

    Abstract: 本发明公开了一种基于光谱信息过滤的可见光红外行人重识别方法及系统,所述方法包括以下步骤:(1)获取原始数据,划分训练集、验证集和测试集并进行预处理;(2)将得到的批量训练样本随机组成跨模态图像对;(3)基于PyTorch搭建三分支行人重识别网络并设置训练参数;(4)将训练时期分为V‑T和V‑I两个阶段,当处于V‑T阶段时,计算语义一致损失更新网络权重,将过渡模态作为过滤条件,从可见光模态中保留与红外模态最为相关的光谱信息;(5)当处于V‑I阶段时计算级联聚合损失,更新网络权重,直接在可见光和红外模态间实现模态对齐,提取模态共享表示;使用验证集验证算法的精度,保存最优精度的网络权重。

    一种基于图结构的图像对比聚类方法及系统

    公开(公告)号:CN117934891B

    公开(公告)日:2024-06-07

    申请号:CN202410343857.7

    申请日:2024-03-25

    Abstract: 本发明提供一种基于图结构的图像对比聚类方法及系统,涉及机器学习和图像处理领域。该方法包含以下步骤,获取原始图像数据集,对原始图像数据集进行两种不同的变换,分获取变换后的数据集的特征和对比特征,计算实例级对比损失,获取并更新每个样本的邻居,获取邻接矩阵并加上不同的随机掩码,构建图结构数据,输入到图神经网络聚合特征与其邻居特征,并获得聚类分配,计算簇级对比损失,通过实例级对比损失和簇级对比损失优化特征提取网络、对比网络和图卷积神经网络,重复上述步骤,直到满足迭代次数,输出聚类分组结果;本发明方法不仅能获取图像的语义信息,也能有效挖掘图像数据之间的结构信息。

    一种基于图结构的图像对比聚类方法及系统

    公开(公告)号:CN117934891A

    公开(公告)日:2024-04-26

    申请号:CN202410343857.7

    申请日:2024-03-25

    Abstract: 本发明提供一种基于图结构的图像对比聚类方法及系统,涉及机器学习和图像处理领域。该方法包含以下步骤,获取原始图像数据集,对原始图像数据集进行两种不同的变换,分获取变换后的数据集的特征和对比特征,计算实例级对比损失,获取并更新每个样本的邻居,获取邻接矩阵并加上不同的随机掩码,构建图结构数据,输入到图神经网络聚合特征与其邻居特征,并获得聚类分配,计算簇级对比损失,通过实例级对比损失和簇级对比损失优化特征提取网络、对比网络和图卷积神经网络,重复上述步骤,直到满足迭代次数,输出聚类分组结果;本发明方法不仅能获取图像的语义信息,也能有效挖掘图像数据之间的结构信息。

    基于混合注意力机制的跨语义细粒度图像分类方法

    公开(公告)号:CN115359288A

    公开(公告)日:2022-11-18

    申请号:CN202210974701.X

    申请日:2022-08-15

    Inventor: 张晓帆 郑钰辉

    Abstract: 本发明涉及图像处理技术领域,具体是基于混合注意力机制的跨语义细粒度图像分类方法,采用普通卷积网络提取原图像特征信息;针对最后一阶段和上一阶段特征图同时引入通道注意力和空间注意力对特征图进行注意力激发,将来自L‑1阶段和L阶段的特征图组合以生成合并的特征图;通过全局最大池化或全局平均池化聚合特征图以获得相应的集合特征,来自同一阶段的融合特征被跨类别跨语义正则化相互约束,同时被送到全连接层生成逻辑值;转换为类概率,通过跨层正则化对逻辑进行约束,并组合用于分类。可以很好地解决子类别具有的类间相似度较大和类内相似度较小的问题;既可以考虑到同一类别中不同图像之间的联系,又可以很容易地进行端到端训练。

    基于自适应背景感知和空间注意力机制的目标跟踪方法

    公开(公告)号:CN114862905A

    公开(公告)日:2022-08-05

    申请号:CN202210313128.8

    申请日:2022-03-28

    Inventor: 范克琦 郑钰辉

    Abstract: 本发明公开了一种基于自适应背景感知和空间注意力机制的目标跟踪方法,包括如下步骤:建立视频图像序列对应的样本矩阵;通过空间注意力机制预处理图像样本矩阵,建立空间特征增强图像样本集;建立滤波器模型的目标函数,训练滤波器模型;利用自适应空间正则化策略优化滤波器模型,通过对滤波器施以自适应权重;利用自适应背景感知方法再次优化滤波器模型,更新求解滤波器模型的目标函数;优化滤波器模型的目标函数,通过求解最优滤波器参数,获取目标当前帧中的位置。本发明提高跟踪算法对目标的辨别能力,使得面临尺度变化、背景复杂、光照变化、运动模糊复杂场景挑战下,跟踪器依然能够应对复杂场景的目标跟踪需求。

    基于运动估计的多特征卫星视频目标跟踪方法

    公开(公告)号:CN114723783A

    公开(公告)日:2022-07-08

    申请号:CN202210348641.0

    申请日:2022-04-01

    Inventor: 张岩 郑钰辉

    Abstract: 本发明公开了基于运动估计的多特征卫星视频目标跟踪方法,包括:利用运动估计模块预测目标在卫星视频当前帧的位置;使用Gabor滤波器对图像块进行特征增强,对增强后的图像块提取光流特征和梯度直方图特征;计算光流特征响应图和梯度直方图特征响应图,根据两响应图的峰旁瓣比对光流特征和梯度直方图特征进行融合;对融合后得到响应图的峰值进行遮挡检测,输出预测目标位置,根据预测目标位置更新运动估计模块和相关滤波器。本发明融合梯度直方图和光流特征,能够更加精准描述目标的特征;利用运动估计模块使当前帧的目标处于图像块的中心位置,有效地缓解边界效应;当目标发生完全遮挡时,运动估计模块仍然可以继续跟踪目标。

Patent Agency Ranking