一种基于注意力多模态特征融合的无监督RGB-T目标跟踪方法

    公开(公告)号:CN114494354A

    公开(公告)日:2022-05-13

    申请号:CN202210138232.8

    申请日:2022-02-15

    Abstract: 本发明公开了一种基于注意力多模态特征融合的无监督RGB‑T目标跟踪方法,先采用分层卷积神经网络来提取RGB图像和热红外图像的特征;再使用特征融合模块将来自不同水平及不同模态的特征进行同步融合;再对融合得到的特征进行两次前向跟踪得到响应图;接着,将融合特征逆序,原先的模板图作为搜索图,搜索图作为模板图,生成的响应图作为伪标签进行反向跟踪得到最终的响应图;然后,最小化反向跟踪得到的响应图与原始标签之间的一致性损失进行无监督训练;最后,将测试视频帧输入训练好的网络进行前向跟踪得到响应图即为预测的目标位置。本发明方法可以充分利用多层次、多模态信息并能发挥无监督学习的优势。

    一种基于属性感知关系推理的通用图像美学评估方法和装置

    公开(公告)号:CN114429460A

    公开(公告)日:2022-05-03

    申请号:CN202210080621.X

    申请日:2022-01-24

    Abstract: 本发明公开了一种基于属性感知关系推理的通用图像美学评估方法和装置,用于提高通用图像美学评估模型的准确性。本发明首先利用卷积神经网络构建特征提取器,得到图像的全局特征图;并在全局特征图的基础上,通过学习图像的美学属性来生成属性感知特征图;然后利用自注意力机制构建属性关系推理模块,并进一步得到美学属性的关系特征图;最后把全局特征图、美学属性特征和属性关系特征图进行特征联合,同时对图像的美学分布进行建模预测;最终通过计算把美学分布转化成图像的通用美学分数;本发明可有效地评估待测试图像的通用美学分数,准确率高,并且本发明可以有效地筛选出符合大众审美的图像,易于应用在图像检索和图像增强等技术中。

    一种基于协同进化卷积神经网络学习的遥感图像分类方法及装置

    公开(公告)号:CN113128323A

    公开(公告)日:2021-07-16

    申请号:CN202010047847.0

    申请日:2020-01-16

    Abstract: 本发明公开了一种基于协同进化卷积神经网络学习的遥感图像分类方法,属于图像处理技术领域。首先初始化多个不同优化方法的相同网络,将初始化的网络同时进行训练,选取一个时间间隔,在每个时间间隔后,选取在测试集上分类准确率最高的网络,保存其模型的全部参数并将保存的模型参数赋予协同训练中剩余的网络,进行网络的迭代训练,每次丢弃表现较差的模型参数,继承表现最好的模型参数。使得每个优化方法充分发挥其功能,达到优化最大化,提高收敛速度,达到较高的准确率。本发明可对大规模的高分辨率遥感图像进行场景分类,大大提高遥感图像分类的准确性,可用于自然灾害的检测与评估,环境监测等领域,减少判断与决策失误性,减少损失。

    基于孪生行人对齐残差网络的行人重识别方法

    公开(公告)号:CN109063649B

    公开(公告)日:2021-05-14

    申请号:CN201810876899.1

    申请日:2018-08-03

    Abstract: 本发明公开了一种基于孪生行人对齐残差网络的行人重识别方法,包括以下步骤:S1、构建基础分支孪生残差网络;S2、构建行人对齐分支孪生残差网络;S3、利用已构造好的训练数据集对构建好的基础分支孪生网络和行人对齐分支孪生残差网络进行参数训练,将训练好的基础分支孪生残差网络中基础分支原型和行人对齐分支孪生残差网络中行人对齐分支原型取出进行行人重识别的分类模型。本发明提升了原有算法行人重识别的准确度。

    一种基于变分自注意力强化学习的遥感图像内容描述方法

    公开(公告)号:CN111126282A

    公开(公告)日:2020-05-08

    申请号:CN201911352556.6

    申请日:2019-12-25

    Abstract: 本发明公开了一种基于变分自注意力强化学习的遥感图像内容描述方法,属于计算机视觉和自然语言处理的交叉领域;包括:使用遥感图像分类数据集,预训练融合变分自编码器的卷积神经网络;使用预训练的卷积神经网络提取遥感图像的空间特征和语义特征;使用自注意力使空间特征融合上下文信息;使用遥感图像内容描述数据集,使用Transformer解码空间特征和语义特征,融合特征,输出遥感图像内容的文本描述;使用强化学习提升文本描述质量。本发明利用遥感图像分类数据集,融合变分自编码器进行卷积神经网络预训练,使用自注意力机制,特征融合,强化学习,优化了遥感图像内容描述文本的质量。

    一种基于多尺度循环生成式对抗网络的高分辨行人图像生成方法

    公开(公告)号:CN110363068A

    公开(公告)日:2019-10-22

    申请号:CN201910450597.2

    申请日:2019-05-28

    Abstract: 本发明公开了一种基于多尺度循环生成式对抗网络的高分辨行人图像生成方法,解决由监控设备拍摄到的行人图像分辨率存在差异的问题。其实现方案是:提出基于多尺度循环生成式对抗网络的高分辨行人图像生成模型,采用多尺度生成网络模型将低分辨率行人图像转换为高分辨行人图像,该模型生成器分为两个子生成网络:全局生成网络和局部增强网络;其次采用循环生成式对抗网络技术通过对抗学习的方法来训练多尺度生成器,目的是解决生成高分辨图像失真问题以及还原行人图像的背景信息;针对网络模型复杂度高和参数多的问题,使用多阶段学习方法来训练多尺度循环生成式对抗网络高分辨行人图像生成模型,实现网络性能的稳步提升。

    一种时-空信息联合的在线学习方法

    公开(公告)号:CN110211156A

    公开(公告)日:2019-09-06

    申请号:CN201910480901.8

    申请日:2019-06-04

    Abstract: 本发明公开了一种时-空信息联合的在线学习方法,用目标追踪算法与行人搜索算法相互提高效率,交互式地对跟踪网络与行人搜索网络进行训练。本发明的具体步骤如下:(1)输入视频流数据;(2)运行网络进行样本扩充;(3)行人搜索网络与目标追踪网络同时根据网络状态采取动作。本发明将行人搜索网络和目标追踪网络相结合,有着鲁棒性强,运算速度快的优点。

    一种结构感知自注意和在线实例聚合匹配的行人搜索方法及装置

    公开(公告)号:CN109948425A

    公开(公告)日:2019-06-28

    申请号:CN201910061943.8

    申请日:2019-01-22

    Abstract: 本发明公开了一种结构感知自注意和在线实例聚合匹配的行人搜索方法及装置,属于计算机视觉技术处理技术领域。在训练阶段,首先通过一个卷积神经网络和非局部层的结合,对输入的整个场景图像进行特征提取,得到它的特征表示,针对行人的这一特殊对象设计结构感知的锚点,提升检测框架性能,将检测出的行人框池化成相同尺寸后,送入行人重识别网络训练,保存,优化和更新具有标签的行人特征。在模型测试阶段,使用训练好的非局部卷积神经网络对输入场景图像进行行人检测,检测出行人框之后,并用目标行人图像进行特相似度匹配排序并检索。本发明可对大规模的现实场景图象同时进行行人检测和重识别,在城市监控等安防领域发挥重要作用。

Patent Agency Ranking