一种结构感知自注意和在线实例聚合匹配的行人搜索方法及装置

    公开(公告)号:CN109948425A

    公开(公告)日:2019-06-28

    申请号:CN201910061943.8

    申请日:2019-01-22

    Abstract: 本发明公开了一种结构感知自注意和在线实例聚合匹配的行人搜索方法及装置,属于计算机视觉技术处理技术领域。在训练阶段,首先通过一个卷积神经网络和非局部层的结合,对输入的整个场景图像进行特征提取,得到它的特征表示,针对行人的这一特殊对象设计结构感知的锚点,提升检测框架性能,将检测出的行人框池化成相同尺寸后,送入行人重识别网络训练,保存,优化和更新具有标签的行人特征。在模型测试阶段,使用训练好的非局部卷积神经网络对输入场景图像进行行人检测,检测出行人框之后,并用目标行人图像进行特相似度匹配排序并检索。本发明可对大规模的现实场景图象同时进行行人检测和重识别,在城市监控等安防领域发挥重要作用。

    一种基于动态提示记忆网络的视频阴影检测方法及装置

    公开(公告)号:CN119850651A

    公开(公告)日:2025-04-18

    申请号:CN202411929997.9

    申请日:2024-12-25

    Abstract: 本发明公开了一种基于动态提示记忆网络的视频阴影检测方法及装置,借助投影阴影的物体处理混淆阴影,能够在不累积错误的情况下聚合时间信息;该方法包括动态提示模块和基于提示的记忆模块两部分;所述动态提示模块利用局部提示和全局提示,在直接编码阴影困难时将视觉基础模型DINOv2提供的语义信息转换为阴影掩码,局部提示侧重于语义转换,基于语义信息识别阴影位置,全局提示基于颜色和纹理信息识别阴影边界;所述记忆模块用于解决变形和长期时间一致性问题,同时防止错误累积,记忆模块使用局部提示作为时间匹配的代理,减少内存使用并最小化对历史阴影掩码的依赖。本发明方法面向复杂场景下模糊阴影难以检测的问题,能够提升复杂场景下的检测性能,同时保持长期检测时结果的时间一致性。

    一种针对视频目标分割的注意力引导的对抗性攻击方法

    公开(公告)号:CN114494959B

    公开(公告)日:2025-03-25

    申请号:CN202210080615.4

    申请日:2022-01-24

    Abstract: 本发明公开了一种针对视频目标分割的注意力引导的对抗性攻击方法,首先使用特征提取器提取视频帧的特征图;然后构建多级特征空间注意力模块,获得空间注意力图;将空间注意力图与特征图串联起来,得到增强特征图,并对增强特征图进行下采样;构建反卷积神经网络,基于下采样后的增强特征图生成原始视频序列的对抗性扰动;将生成的对抗性扰动添加到原始视频序列中产生对抗样本;给定初始帧掩码,将对抗样本输入经典的单样本视频目标分割网络中得到最终预测掩码。本发明提供对抗性攻击方法借助注意力机制和增强特征图生成对抗性扰动,能够针对视频目标分割任务进行对抗性攻击,实现将目标的所有像素进行错误分类。

    一种基于Kan-Mamba模型的遥感图像语义分割方法及装置

    公开(公告)号:CN119399473A

    公开(公告)日:2025-02-07

    申请号:CN202411606296.1

    申请日:2024-11-12

    Abstract: 本发明公开了一种基于KAN‑Mamba的多源遥感图像语义分割方法及装置,用于提高遥感图像语义分割的准确度,包括KAN‑Mamba特征提取网络和Uper_Head解码器;所述KAN‑Mamba特征提取网络包括一个Stem卷积神经网络和四阶段的KAN‑Mamba特征提取模块,通过KAN‑Mamba特征提取网络对融合遥感图像进行分阶段的特征提取,获取多尺度特征;所述Uper_Head解码器,包括侧边特征构建单元、池化单元、特征融合单元和分类层,通过侧边特征构建单元和池化单元对多尺度特征进行侧边特征构建、池化操作,再通过特征融合单元进行逐级的特征融合,接着通过BottleNeck层进行通道融合,最后通过分类层得到语义分割标签。本发明对于多源遥感图像的语义分割准确率更高、模型收敛更快、细节信息更精确。

    一种基于双向边缘和目标学习的红外小目标检测方法及装置

    公开(公告)号:CN118781321A

    公开(公告)日:2024-10-15

    申请号:CN202410767672.9

    申请日:2024-06-14

    Abstract: 本发明公开了一种基于双向边缘和目标学习的红外小目标检测方法及装置,先将红外小目标图像输入到多级编码器以提取多级编码特征,同时使用粗略边缘检测算子获取粗略边缘特征,将得到的编码特征和粗略边缘特征输入到多级解码器进行特征重建,通过DGCFM模块捕获边缘细节和目标区域全局上下文特征,然后将多级编码器生成的编码特征和对应多级解码器反卷积中生成的高级特征输入到CIAAM模块自适应调整浅层特征和深层特征的融合权重,进而获得跨层融合特征,得到最终的目标特征和精细边缘特征,将目标特征输入到检测头进行像素级语义分割。本发明利用双向学习边缘细节和目标区域的互补优势增强了特征交叉融合能力并能充分发挥边缘信息的优势。

    一种基于多尺度特征融合和多分辨率采样的遥感图像实例分割方法

    公开(公告)号:CN118505996A

    公开(公告)日:2024-08-16

    申请号:CN202410644904.1

    申请日:2024-05-23

    Abstract: 本发明提出一种基于多尺度特征融合和多分辨率采样掩膜生成的遥感图像实例分割方法,包括:步骤1,获取遥感图像实例分割数据集,步骤2:搭建改进的Mask R‑CNN网络模型,由主干网络swin transformer和特征金字塔FPN得到初始多尺度特征图,使用双维度加权模块对其加权融合,得到融合后多尺度特征图。融合后特征图经过区域建议网络RPN,得到各个实例的粗略位置。使用多种分辨率的RoIAlign算法,在初始和融合后特征图的目标位置处分别提取感兴趣特征图。融合后的感兴趣特征图用于分类和边界框检测。对融合前后的感兴趣特征图计算交叉注意力,预测分割结果。步骤3,利用遥感数据集对步骤2中搭建的实例分割模型进行训练。步骤4,使用训练好的模型对遥感图像进行检测。

    一种基于协同进化卷积神经网络学习的遥感图像分类方法及装置

    公开(公告)号:CN113128323B

    公开(公告)日:2023-08-18

    申请号:CN202010047847.0

    申请日:2020-01-16

    Abstract: 本发明公开了一种基于协同进化卷积神经网络学习的遥感图像分类方法,属于图像处理技术领域。首先初始化多个不同优化方法的相同网络,将初始化的网络同时进行训练,选取一个时间间隔,在每个时间间隔后,选取在测试集上分类准确率最高的网络,保存其模型的全部参数并将保存的模型参数赋予协同训练中剩余的网络,进行网络的迭代训练,每次丢弃表现较差的模型参数,继承表现最好的模型参数。使得每个优化方法充分发挥其功能,达到优化最大化,提高收敛速度,达到较高的准确率。本发明可对大规模的高分辨率遥感图像进行场景分类,大大提高遥感图像分类的准确性,可用于自然灾害的检测与评估,环境监测等领域,减少判断与决策失误性,减少损失。

    一种轻量级视频行人重识别方法

    公开(公告)号:CN110765880B

    公开(公告)日:2023-04-18

    申请号:CN201910903126.2

    申请日:2019-09-24

    Abstract: 本发明公开了一种轻量级视频行人重识别方法,属于计算机视觉技术处理技术领域。在搭建模型阶段,使用基于ShuffleNet v2的轻量级算法,同时,利用轻量级空间注意力机制模块处理人物图像细节,最后,通过一个在线差异识别模块来测量视频帧之间的特征差距,并使用该模块对不同质量的视频序列进行不同类型的时间建模。在模型训练阶段,输入行人的视频序列,使用上述搭建好的网络提取它们的特征表示,利用批量难分辨三元组损失和softmax损失共同训练并更新行人特征;在模型测试阶段,使用训练好的轻量级行人搜索模型对输入的目标查询行人,提取行人特征,并在大规模的视频序列中搜索出目标查询行人。本发明可应对大规模的现实场景图象,用于城市监控等安防领域。

Patent Agency Ranking