-
公开(公告)号:CN109977250B
公开(公告)日:2023-03-28
申请号:CN201910211486.6
申请日:2019-03-20
IPC: G06F16/58 , G06F16/51 , G06N3/0464 , G06N3/084
Abstract: 本发明公开了一种融合语义信息和多级相似性的深度哈希图像检索方法,包括以下步骤;S1,构建图像数据库;S2,构建标签向量矩阵和语义向量矩阵;S3,构建相似度矩阵;S4,搭建深度哈希神经网络模型,将原始图像转换为近似哈希向量;S5,构建对相似图片哈希向量的海明距离有下界约束的损失函数;S6,对搭建的深度哈希神经网络模型进行训练;S7,构建图像的哈希向量数据库;S8,将待检索图像的哈希向量与哈希向量数据库里的向量进行对比,以找出相似的图像。本发明通过融合语义信息,提高了图像检索的精度;并通过约束两张相似图片所对应哈希向量间的海明距离的下界,提高了检索性能。
-
公开(公告)号:CN108875076A
公开(公告)日:2018-11-23
申请号:CN201810750096.1
申请日:2018-07-10
Abstract: 本发明公开了一种基于Attention机制和卷积神经网络的快速商标图像检索方法,包括搭建Caffe深度学习开源框架,对开源VGG16网络模型进行训练;基于VGG16网络模型设计包含两层卷积层的Attention网络,并在训练好的VGG16网络模型中添加Attention网络;使用FlickrLogos‑32数据集中的训练集对添加了Attention网络的VGG16网络模型进行训练;基于训练好的添加了Attention网络的VGG16网络模型生成Attention‑MAC商标特征提取模型;基于Attention‑MAC商标特征提取模型对待查询商标图像进行检索,并生成检索结果。本发明避免使用全连接层冗余的参数,达到精简模型的目的,提高训练和检索的速度,降低误检率。
-
公开(公告)号:CN108875076B
公开(公告)日:2021-07-20
申请号:CN201810750096.1
申请日:2018-07-10
IPC: G06F16/583 , G06N3/04
Abstract: 本发明公开了一种基于Attention机制和卷积神经网络的快速商标图像检索方法,包括搭建Caffe深度学习开源框架,对开源VGG16网络模型进行训练;基于VGG16网络模型设计包含两层卷积层的Attention网络,并在训练好的VGG16网络模型中添加Attention网络;使用FlickrLogos‑32数据集中的训练集对添加了Attention网络的VGG16网络模型进行训练;基于训练好的添加了Attention网络的VGG16网络模型生成Attention‑MAC商标特征提取模型;基于Attention‑MAC商标特征提取模型对待查询商标图像进行检索,并生成检索结果。本发明避免使用全连接层冗余的参数,达到精简模型的目的,提高训练和检索的速度,降低误检率。
-
公开(公告)号:CN109086437A
公开(公告)日:2018-12-25
申请号:CN201810926656.4
申请日:2018-08-15
Abstract: 本发明公开一种融合Faster-RCNN(Faster-Regions with Convolutional Neural Network,快速区域卷积神经网络)和Wasserstein自编码器的图像检索方法。本发明搭建深度学习框架,采用Faster-RCNN模型提取图像特征;对Faster-RCNN模型进行训练,微调网络权重;提取图像的全局特征,构建图像的全局特征图库;构建Wasserstein自编码器,并对Wasserstein自编码器进行训练;采用Wasserstein自编码器对全局特征进行降维,计算欧几里得距离得出第一相似度,并进行第一次排序,完成图像的粗粒度检索;提取图像中候选区域的特征作为局部特征,构建图像的局部特征图库;采用Wasserstein自编码器对局部特征进行降维,计算第二相似度并进行第二次排序,完成图像的细粒度检索。该方法能加快图像的检索速度以及提高图像检索的准确率。
-
公开(公告)号:CN110321957B
公开(公告)日:2023-03-24
申请号:CN201910605728.X
申请日:2019-07-05
IPC: G06V10/774 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/08 , G06F16/58
Abstract: 本发明提供了一种融合三元组损失和生成对抗网络的多标签图像检索方法,其包括步骤:搭建深度学习框架,部署生成对抗网络模型;输入图像数据集至生成对抗网络模型中以获取多标签图像和三元组数据;基于多标签图像构建三元组损失函数;从图像数据集中选取第一图像对深度哈希编码网络进行训练以获取完成训练的深度哈希编码网络;从图像数据集中选取预设数量的第二图像,将第二图像输入完成训练的深度哈希编码网络以获取哈希向量数据库;将需要检索的第一图像输入完成训练的深度哈希编码网络以检索出与第一图像相似的第二图像。本发明通过使用生成对抗网络生成与数据集样本相似的多标签生成图片,扩充了训练数据量,提高了图像的检索速度和精度。
-
公开(公告)号:CN110321957A
公开(公告)日:2019-10-11
申请号:CN201910605728.X
申请日:2019-07-05
Abstract: 本发明提供了一种融合三元组损失和生成对抗网络的多标签图像检索方法,其包括步骤:搭建深度学习框架,部署生成对抗网络模型;输入图像数据集至生成对抗网络模型中以获取多标签图像和三元组数据;基于多标签图像构建三元组损失函数;从图像数据集中选取第一图像对深度哈希编码网络进行训练以获取完成训练的深度哈希编码网络;从图像数据集中选取预设数量的第二图像,将第二图像输入完成训练的深度哈希编码网络以获取哈希向量数据库;将需要检索的第一图像输入完成训练的深度哈希编码网络以检索出与第一图像相似的第二图像。本发明通过使用生成对抗网络生成与数据集样本相似的多标签生成图片,扩充了训练数据量,提高了图像的检索速度和精度。
-
公开(公告)号:CN109977250A
公开(公告)日:2019-07-05
申请号:CN201910211486.6
申请日:2019-03-20
Abstract: 本发明公开了一种融合语义信息和多级相似性的深度哈希图像检索方法,包括以下步骤;S1,构建图像数据库;S2,构建标签向量矩阵和语义向量矩阵;S3,构建相似度矩阵;S4,搭建深度哈希神经网络模型,将原始图像转换为近似哈希向量;S5,构建对相似图片哈希向量的海明距离有下界约束的损失函数;S6,对搭建的深度哈希神经网络模型进行训练;S7,构建图像的哈希向量数据库;S8,将待检索图像的哈希向量与哈希向量数据库里的向量进行对比,以找出相似的图像。本发明通过融合语义信息,提高了图像检索的精度;并通过约束两张相似图片所对应哈希向量间的海明距离的下界,提高了检索性能。
-
公开(公告)号:CN109086437B
公开(公告)日:2021-06-01
申请号:CN201810926656.4
申请日:2018-08-15
IPC: G06F16/583 , G06F16/51 , G06K9/62 , G06N3/04 , G06N3/08
Abstract: 本发明公开一种融合Faster‑RCNN(Faster‑Regions with Convolutional Neural Network,快速区域卷积神经网络)和Wasserstein自编码器的图像检索方法。本发明搭建深度学习框架,采用Faster‑RCNN模型提取图像特征;对Faster‑RCNN模型进行训练,微调网络权重;提取图像的全局特征,构建图像的全局特征图库;构建Wasserstein自编码器,并对Wasserstein自编码器进行训练;采用Wasserstein自编码器对全局特征进行降维,计算欧几里得距离得出第一相似度,并进行第一次排序,完成图像的粗粒度检索;提取图像中候选区域的特征作为局部特征,构建图像的局部特征图库;采用Wasserstein自编码器对局部特征进行降维,计算第二相似度并进行第二次排序,完成图像的细粒度检索。该方法能加快图像的检索速度以及提高图像检索的准确率。
-
公开(公告)号:CN114168784B
公开(公告)日:2024-11-01
申请号:CN202111511008.0
申请日:2021-12-10
Applicant: 桂林电子科技大学
IPC: G06F16/583 , G06F16/33 , G06N3/045 , G06N3/0475 , G06N3/048 , G06N3/094 , G06N3/084
Abstract: 本发明公开了一种分层监督跨模态图文检索方法,所述的方法包括步骤如下:S1:构建用于提取图像特征和文本特征的特征提取网络;S2:利用特征提取网络提取图像和文本特征,分别得到图像和文本的初步高维特征值;S3:构建模态对抗网络,将图像和文本的初步高维特征值输入模态对抗网络进行对抗学习,使得含有相同语义的不同模态在公共空间中的距离最近;S4:构建哈希码生成网络,并利用哈希码生成网络约束特征提取网络的最后一层全连接层,使得通过最后一层全连接层的图像和文本的初步高维特征值,生成最优哈希码,实现对跨模态数据检索。本发明能实现对具有分层监督跨模态数据的检索,提升跨模态检索效率。
-
公开(公告)号:CN118747226A
公开(公告)日:2024-10-08
申请号:CN202410889007.7
申请日:2024-07-04
Applicant: 桂林电子科技大学
IPC: G06F16/532 , G06F16/583 , G06V10/40 , G06F18/213 , G06F18/22 , G06F16/332 , G06F16/383
Abstract: 本发明公开了一种目标级跨模态图文检索方法及存储介质,所述方法构建了图像‑目标信息成对数据,并在特征提取过程中将目标的位置信息集成到文本标题特征中,有效学习了图像中目标和文本的关联关系,提升了图文检索的准确性和可解释性;通过将跨模态鸿沟分布添加到图像特征中并结合鸿沟余弦损失函数最大化图像特征和目标特征的相似性,解决了图文数据的模态鸿沟问题;利用二次训练模块对错误检索数据进一步训练,获得训练完备的一种目标级跨模态图文检索模型,进一步提升了模型的性能。
-
-
-
-
-
-
-
-
-