基于特征自学习的大场景极小目标遥感视频跟踪方法

    公开(公告)号:CN111986233B

    公开(公告)日:2023-02-10

    申请号:CN202010840783.X

    申请日:2020-08-20

    Abstract: 本发明提出的一种基于特征自学习的大场景极小目标遥感视频跟踪方法,主要解决了现有视频跟踪算法存在的计算复杂度高、跟踪精度低问题。其方案包括:1)获取极小目标特征自学习网络的初始训练集;2)构建极小目标特征自学习网络;3)构建特征自学习网络的损失函数;4)根据损失函数训练网络得到极小目标特征自学习模型;5)输入测试集图像,得到遥感视频目标跟踪结果。本发明使用特征自学习网络学习极小目标的外观特征、预测目标位置,避免了传统跟踪方法常用的前期处理过程,有效减小了网络复杂性,且极大的提高了超模糊的大场景遥感视频中极小目标的定位准确性。

    基于K-组合均值特征增强的小样本目标检测方法及系统

    公开(公告)号:CN113255791B

    公开(公告)日:2022-11-25

    申请号:CN202110605372.7

    申请日:2021-05-31

    Abstract: 本发明公开了一种基于K‑组合均值特征增强的小样本目标检测方法及系统,利用每类K个带标签样本的标签信息,得到对应的特征,通过对这K个目标的特征进行组合平均,为每个组合计算平均特征。然后将这些平均特征添加到原有特征样本集合中,增加特征样本的数量。在微调阶段,除了新类带标签样本对分类和回归器进行微调外,还使用增加后的特征样本集合对分类器进行微调。实验结果证明通过基于K‑组合均值的特征增强方法,通过增加特征样本的数量,为分类器提供了更多的特征样本,缓解了模型的过拟合问题,提升了基于微调的小样本目标检测模型的检测精度。

    一种基于边Transformer图神经网络的小样本图像分类方法及系统

    公开(公告)号:CN113378938A

    公开(公告)日:2021-09-10

    申请号:CN202110657352.4

    申请日:2021-06-11

    Abstract: 本发明公开了一种基于边Transformer图神经网络的小样本图像分类方法及系统,引入transformer模型来对图中的边特征进行更新,通过将结点之间的差值特征图拆分成特征块序列输入到transformer模块得到更新后的边特征,使得每一个像素位置会被分配不同的注意力权重以突出关键区域。本发明的思想是利用transformer中的自注意力机制来自动聚焦到用于衡量结点间相似性的关键区域,从而达到抑制背景信息并突出关键区域的目的。本发明在miniImageNet数据集上进行的对比实验证明了本发明可以提高小样本图像分类的精度。

Patent Agency Ranking