一种基于二阶段注意力机制GAN网络图像修复算法

    公开(公告)号:CN112801895B

    公开(公告)日:2022-10-14

    申请号:CN202110053892.1

    申请日:2021-01-15

    IPC分类号: G06T5/00 G06N3/04 G06N3/08

    摘要: 本发明公开了一种基于二阶段注意力机制GAN网络图像修复算法,包括以下步骤:搭建基于GPU版本的Pytorch深度学习框架运行环境;准备数据集,每个数据集都有真实的图片和mask;搭建运行图像到图像的深度神经网络,包括生成器和判别器;进行泛化实验。生成器采用编码器-解码器结构,不断训练以生成预测图像;判别器衡量生成图像的真实性,以对抗损失作为损失函数。通过不断迭代联合优化生成器和判别器,以使网络预测性能提高。本发明能够训练实现端到端的自监督图像转换,既能用于学习输入图像到输出图像之间的映射关系,又能学习用于训练映射关系的损失函数。

    一种基于k-means聚类的小样本图像分类方法

    公开(公告)号:CN114299362A

    公开(公告)日:2022-04-08

    申请号:CN202111616910.9

    申请日:2021-12-27

    摘要: 本发明公开了一种基于k‑means聚类的小样本图像分类方法,首选,一个包含支持集和查询集的任务被送到特征提取器中,经过连续的卷积块操作后,获得深度图像特征。接着,一个小样本分类模块利用查询集和支持集的深度图像特征,通过构建相似矩阵,可以预测查询集中的图片所属的支持类别。与此同时,一个k‑means聚类任务对特征提取器所输出的图像特征进行聚类,形成若干个簇,同时为每一个簇内的样本分配伪标签。簇分类模块根据伪标签将特征提取器输出的图像特征分成k个类别。在训练过程中,多个任务共享信息,相互促进学习。与现有的小样本图像分类模型相比较,本发明在保持模型稳定性的同时显著提升了小样本图像分类的准确性。

    一种基于PSR的视觉跟踪错误修正方法

    公开(公告)号:CN108734722B

    公开(公告)日:2022-03-15

    申请号:CN201810346646.3

    申请日:2018-04-18

    IPC分类号: G06T7/246 G06T7/262

    摘要: 本发明揭示了一种基于PSR的视觉跟踪错误修正方法,包括如下步骤:S1、计算出第一帧的相关滤波器;S2、限定实施错误修正的范围;S3、计算出与;S4、将与进行比较;S5、提取目标在新状态下的特征;S6、重复上述步骤,完成后续检测修正。当出现物体遮挡、视角变化、目标形变、周围光照变化等情况时,本发明的方法可以通过使用第一帧训练得到的相关滤波器来对后续跟踪检测过程中的状态估计进行判定,若第一帧有比当前帧正在使用的滤波器更高的可信度,则使用第一帧来进行状态估计,从而减少了视觉跟踪过程中错误发生的几率,提高了视觉跟踪的精度。

    一种基于级联式卷积网络的机动车人脸检测方法

    公开(公告)号:CN111222463A

    公开(公告)日:2020-06-02

    申请号:CN202010013452.9

    申请日:2020-01-07

    IPC分类号: G06K9/00 G06K9/62 G06N3/04

    摘要: 本发明公开了一种基于级联式卷积网络的机动车人脸检测方法,所述方法包括:获取机动车的拍摄图片;将所述拍摄图片输入至人脸检测方法模型得到拍摄图片中人脸图像的位置;所述人脸检测方法模型采用级联式卷积神经网络。本发明针对机动车人脸检测设计了级联式卷积神经网络并充分考虑了在机动车人脸检测领域中公开数据缺乏的问题,通过预训练、再训练的方式提高网络对机动车人脸图片的鲁棒性,在新的DRIVER FACE数据集上取得了不错的人脸检测效果。

    一种基于VGG深度网络的视觉目标跟踪方法

    公开(公告)号:CN108665482A

    公开(公告)日:2018-10-16

    申请号:CN201810346647.8

    申请日:2018-04-18

    IPC分类号: G06T7/246 G06N3/04

    摘要: 本发明揭示了一种基于VGG深度网络的视觉目标跟踪方法,包括如下步骤:S1、编译MatConvNet的运行环境;S2、构建VGG深度神经网络;S3、进行视频帧输入,并判断输入帧是否为初始帧,若输入帧为非初始帧,则进入S4,若输入帧为初始帧,则跳过S4、进入S5;S4、进行目标新状态估计,随后进入S5;S5、进行滤波器模型的在线更新。本发明与传统的视觉目标跟踪方法相比,在特征上包含了更多的语义信息,可以有更高的跟踪精度。而与利用高层深度特征的视觉目标跟踪方法相比,本发明所使用的低层数据既可以节约计算损耗,而又不缺失语义信息。因此,本发明在跟踪精度和跟踪速度上做了权衡,获得了优异的跟踪性能。

    基于时频转换和复值多头注意力掩码机制的射频指纹识别

    公开(公告)号:CN117648626A

    公开(公告)日:2024-03-05

    申请号:CN202311640929.6

    申请日:2023-12-01

    发明人: 蒋赟琪 王彩玲

    摘要: 本发明提出了一种基于时频转换和复值多头注意力掩码机制的射频指纹识别法,该方法包括:步骤1、利用傅里叶变换将原始卫星I/Q信号的I路与Q路变换至频域,并使用复值卷积对原始卫星I/Q信号进行初步的维度扩展与缩减,方便后续编码器结构的运算;步骤2、将I/Q信号两路的频域特征图分别输入进复值多头注意力模块,在复数注意力的多头中使用三种不同的掩码策略,丰富注意力的表达和计算效率;步骤3、利用傅里叶逆变换将两路注意力结果特征图分别逆变换至时域,输入分类层进行映射,实现最终分类。本发明能够高效提取出卫星I/Q复数信号中所蕴含的唯一映射硬件发射源身份的射频指纹,实现卫星发射源的高精度分类识别。

    一种基于伪孪生密集连接注意力机制的路面裂缝检测方法

    公开(公告)号:CN112819762A

    公开(公告)日:2021-05-18

    申请号:CN202110087473.X

    申请日:2021-01-22

    摘要: 本发明公开了一种基于伪孪生密集连接注意力机制的路面裂缝检测方法,包括:步骤S1、获取数据集;步骤S2、对所述训练集中的图片进行预处理;步骤S3、构建伪孪生残差网络;步骤S4、设计伪孪生残差网络的损失函数,训练所述伪孪生残差网络直到所述损失函数收敛,保存模型;步骤S5、使用所述步骤S4中得到的模型检测所述测试中图片的裂缝。本发明通过改进传统的Encoder‑Decoder模型,使得可以有效的检测混合背景下即混合数据集下的检测结果;并且对损失函数进行优化,使其更适用于路面裂缝背景。

    一种基于二阶段注意力机制GAN网络图像修复算法

    公开(公告)号:CN112801895A

    公开(公告)日:2021-05-14

    申请号:CN202110053892.1

    申请日:2021-01-15

    IPC分类号: G06T5/00 G06N3/04 G06N3/08

    摘要: 本发明公开了一种基于二阶段注意力机制GAN网络图像修复算法,包括以下步骤:搭建基于GPU版本的Pytorch深度学习框架运行环境;准备数据集,每个数据集都有真实的图片和mask;搭建运行图像到图像的深度神经网络,包括生成器和判别器;进行泛化实验。生成器采用编码器-解码器结构,不断训练以生成预测图像;判别器衡量生成图像的真实性,以对抗损失作为损失函数。通过不断迭代联合优化生成器和判别器,以使网络预测性能提高。本发明能够训练实现端到端的自监督图像转换,既能用于学习输入图像到输出图像之间的映射关系,又能学习用于训练映射关系的损失函数。

    一种基于伪孪生密集连接注意力机制的路面裂缝检测方法

    公开(公告)号:CN112819762B

    公开(公告)日:2022-10-18

    申请号:CN202110087473.X

    申请日:2021-01-22

    摘要: 本发明公开了一种基于伪孪生密集连接注意力机制的路面裂缝检测方法,包括:步骤S1、获取数据集;步骤S2、对所述训练集中的图片进行预处理;步骤S3、构建伪孪生残差网络;步骤S4、设计伪孪生残差网络的损失函数,训练所述伪孪生残差网络直到所述损失函数收敛,保存模型;步骤S5、使用所述步骤S4中得到的模型检测所述测试中图片的裂缝。本发明通过改进传统的Encoder‑Decoder模型,使得可以有效的检测混合背景下即混合数据集下的检测结果;并且对损失函数进行优化,使其更适用于路面裂缝背景。

    一种基于生成性对抗网络的模态一致性跨模态检索方法

    公开(公告)号:CN111460201B

    公开(公告)日:2022-09-23

    申请号:CN202010143786.8

    申请日:2020-03-04

    IPC分类号: G06F16/58 G06N3/08

    摘要: 本发明公开了一种基于生成性对抗网络的模态一致性跨模态检索方法,包括以下步骤:首先利用生成性对抗网络强大的数据分布建模能力,将文本特征映射到图像特征空间,用这种方法将跨模态检索问题转换为单模态检索问题,尽可能多地保留图像语义信息的同时减小模态的异质性。其次,设计了一个模态一致性哈希网络,将真实的图像特征和通过生成性对抗网络生成的特征投影到汉明空间中,并且利用标签信息对模态间和模态内的相似性进行建模,使得输出的哈希码在模态间和模态内具有更好的语义区分性,获得更具判别性的哈希码。最后在两个常用的基准数据集上的实验结果表明本方法与现有的流行方法相比具有更好的跨模态检索性能。