基于MG-LSTM的引文差异匹配方法、装置及存储介质

    公开(公告)号:CN112035607B

    公开(公告)日:2022-05-20

    申请号:CN202010834878.0

    申请日:2020-08-19

    Applicant: 中南大学

    Abstract: 本发明公开了一种于MG‑LSTM的引文差异匹配方法、装置及存储介质,其中方法包括:获取待甄别引文和可信引文的标题、作者、出版社元数据;以单词和字符为分割粒度,将待甄别引文和可信引文的标题、作者、出版社元数据分别分割转换为标题嵌入向量对、作者嵌入向量对、出版社嵌入向量对;基于注意力机制分别学习各嵌入向量对的权重,并基于对应权重更新各嵌入向量对;将更新后的各嵌入向量对输入预先训练好的引文差异识别模型中,输出引文差异匹配结果类别。可进行引文细粒度甄别,判断引文存在何种差异类型;通过引入注意力机制能更好的表征待甄别引文与可信引文的各元数据间的相互关系,再结合双向LSTM网络同时保留两个方向的特征信息,确保了甄别精度。

    基于注意力指导的行人重识别方法、装置及存储介质

    公开(公告)号:CN112906614A

    公开(公告)日:2021-06-04

    申请号:CN202110249654.8

    申请日:2021-03-08

    Applicant: 中南大学

    Abstract: 本发明公开了一种基于注意力指导的行人重识别方法、装置及存储介质,其中方法包括:获取目标图像和待识别图像;分别提取两者的行人二值化前景,并生成行人三分图;分别将目标图像和待识别图像及各自对应的行人三分图输入基于注意力机制的行人分割模型,提取目标行人图像和待识别行人图像;分别将其缩放到相同大小的白色背景中;并分别划分成若干条带子图,并计算每个条带子图的LOMO特征和CN特征,得到目标行人图像特征集和待识别行人图像特征集;将两个特征集输入基于孪生LSTM网络的相似度预测模型中,得到识别的相似度。能够解决非重叠相机所捕捉的图像背景复杂导致行人识别率不高的问题,能在复杂环境下的安保工作中起到重要的辅助任务。

    一种基于量化哈希编码的时空数据检索方法

    公开(公告)号:CN116414867B

    公开(公告)日:2023-08-22

    申请号:CN202310684479.4

    申请日:2023-06-12

    Applicant: 中南大学

    Abstract: 本发明公开了一种基于量化哈希编码的时空数据检索方法,包括:S1,提取待检索的原始数据的时间信息和空间信息,形成序列化编码。S2,对序列化编码聚类,得到编码矩阵。S3,提取原始数据的原始特征向量,然后核化得到语义特征矩阵。S4,将语义特征矩阵与编码矩阵进行拼接,得到语义融合矩阵。S5,基于min‑hash算法和随机分桶映射,获得哈希检索函数。S6,对语义融合矩阵基于段长来得到下标,然后转换为二进制数并拼接得到语义融合量化码,形成时空量化码。S7,基于哈希检索函数执行检索。本发明通过将时间和空间特征与传统哈希编码融合学习,使得量化码具备了时空特征,从而提高大规模时空检索的检索速度和检索效率。

    一种基于双通道残差神经网络的人体动作识别方法

    公开(公告)号:CN110348494A

    公开(公告)日:2019-10-18

    申请号:CN201910567065.7

    申请日:2019-06-27

    Applicant: 中南大学

    Abstract: 本发明公开了一种基于双通道残差神经网络的人体动作识别方法,双通道残差神经网络中的短通道/长通道根据设置的滑动时间窗口长度,从输入的传感器时序数据中截取相应长度的数据;截取的数据依次由一个卷积层和一个残差层进行特征提取,得到短通道/长通道的输出特征;短通道和长通道的输出特征共同输入一个连接层进行拼接,再输入一个全连接层进行整合,得到一个向量,该向量维度等于分类标签总数,其第k维的元素值对应输入的传感器时序数据分类标签为k的可能性大小;基于样本数据对网络进行训练;再将未知分类标签的传感器时序数据输入训练好网络,确定其人体动作分类标签。本发明能实现高精度的人体动作识别。

    一种基于关系网络的跨模态哈希检索方法、装置和设备

    公开(公告)号:CN119226447B

    公开(公告)日:2025-04-04

    申请号:CN202411756952.6

    申请日:2024-12-03

    Applicant: 中南大学

    Abstract: 本申请涉及一种基于关系网络的跨模态哈希检索方法、装置和设备,本方法首先获得样本对的图像特征向量和文本特征向量,并得到融合特征向量;然后通过关系网络从图像特征向量、文本特征向量以及融合特征向量中挖掘不同模态对象之间的关联关系,捕获对象样本之间的成对关系的核心共性;然后根据哈希网络计算每个样本对的第一哈希码和第二哈希码之间的第一相似度,根据第二相似度构建损失函数,最后基于损失函数对哈希检索模型的哈希网络进行反向优化。本方法将关系网络引入跨模态哈希检索,解决在将多模态数据的特征向量在获取相似度时存在损失模态语义特征相似性,导致跨模态数据检索准确率不足的问题,实现对多模态的数据进行高精度跨模态检索。

    一种面向流数据的持续哈希学习检索方法和装置

    公开(公告)号:CN119474019A

    公开(公告)日:2025-02-18

    申请号:CN202510036163.3

    申请日:2025-01-09

    Applicant: 中南大学

    Abstract: 本申请涉及了一种面向流数据的持续哈希学习检索方法和装置,本方法构建了哈希检索模型,哈希检索模型训练过程引入持续学习框架,首先通过残差网络基于自监督学习从无标签的训练流数据中提取出第一特征,卷积神经网络能够利用第一特征快速学习有标签的样本数据,并将学习到的第二特征反馈给残差网络,以巩固残差网络;训练流数据包括实时采集的第一实时流数据和数据库中的预存流数据,这样模型能够在不断学习新的实时流数据同时避免对旧的预存流数据知识的遗忘,而且持续学习框架还与哈希函数有效连接,利用残差网络和卷积神经网络持续学习进而提取的特征指导哈希函数的学习,不断提高生成的哈希码质量,进一步提升检索性能。

    一种基于关系网络的跨模态哈希检索方法、装置和设备

    公开(公告)号:CN119226447A

    公开(公告)日:2024-12-31

    申请号:CN202411756952.6

    申请日:2024-12-03

    Applicant: 中南大学

    Abstract: 本申请涉及一种基于关系网络的跨模态哈希检索方法、装置和设备,本方法首先获得样本对的图像特征向量和文本特征向量,并得到融合特征向量;然后通过关系网络从图像特征向量、文本特征向量以及融合特征向量中挖掘不同模态对象之间的关联关系,捕获对象样本之间的成对关系的核心共性;然后根据哈希网络计算每个样本对的第一哈希码和第二哈希码之间的第一相似度,根据第二相似度构建损失函数,最后基于损失函数对哈希检索模型的哈希网络进行反向优化。本方法将关系网络引入跨模态哈希检索,解决在将多模态数据的特征向量在获取相似度时存在损失模态语义特征相似性,导致跨模态数据检索准确率不足的问题,实现对多模态的数据进行高精度跨模态检索。

    一种基于量化哈希编码的时空数据检索方法

    公开(公告)号:CN116414867A

    公开(公告)日:2023-07-11

    申请号:CN202310684479.4

    申请日:2023-06-12

    Applicant: 中南大学

    Abstract: 本发明公开了一种基于量化哈希编码的时空数据检索方法,包括:S1,提取待检索的原始数据的时间信息和空间信息,形成序列化编码。S2,对序列化编码聚类,得到编码矩阵。S3,提取原始数据的原始特征向量,然后核化得到语义特征矩阵。S4,将语义特征矩阵与编码矩阵进行拼接,得到语义融合矩阵。S5,基于min‑hash算法和随机分桶映射,获得哈希检索函数。S6,对语义融合矩阵基于段长来得到下标,然后转换为二进制数并拼接得到语义融合量化码,形成时空量化码。S7,基于哈希检索函数执行检索。本发明通过将时间和空间特征与传统哈希编码融合学习,使得量化码具备了时空特征,从而提高大规模时空检索的检索速度和检索效率。

    一种基于联邦哈希学习的面向跨节点多模态检索方法

    公开(公告)号:CN115686868B

    公开(公告)日:2023-04-07

    申请号:CN202211692053.5

    申请日:2022-12-28

    Applicant: 中南大学

    Abstract: 本发明公开了一种基于联邦哈希学习的面向跨节点多模态检索方法,通过云中心服务器向各边缘节点下发深度哈希模型,并接收各边缘节点训练模型后上传的模型参数,再由云中心服务器对参数进行融合更新后,再下发到各边缘节点继续循环训练直至得到最终模型。训练完成后,云中心服务器根据待检索数据来基于最终模型生成待检索哈希码,然后计算待检索哈希码与存储的哈希码之间的汉明距离,再以距离最小的哈希码对应的原始数据位置信息来提供原始数据检索结果,本发明通过将联邦学习运用到哈希的检索方法中,可以实现多边缘节点数据跨模态的高效检索。

Patent Agency Ranking