一种基于序列保留哈希的超低复杂度图像检索方法

    公开(公告)号:CN106777038B

    公开(公告)日:2019-06-14

    申请号:CN201611127943.6

    申请日:2016-12-09

    Applicant: 厦门大学

    Abstract: 一种基于序列保留哈希的超低复杂度图像检索方法,涉及图像检索。对于图像库中的图像,随机选取一部分图像作为训练集,并抽取相应的图像特征;采用非线性主成分分析方法将原图像特征降低维度到与哈希编码相同的长度;利用K‑means聚类算法得一系列的支撑点,作为后续哈希函数学习的基础;通过迭代优化学习对应的哈希函数;输出对应的哈希函数并计算整个图像库的哈希编码;对于查询图像,先抽取对应的GIST特征,根据训练得到的哈希编码函数对图像特征进行哈希编码,之后计算查询图像的哈希编码与图像库中的图像特征编码之间的汉明距离,利用汉明距离大小衡量查询图像与图像库中待检索图像之间的相似性,返回相似度高的图像。

    基于生成对抗学习的快速弱监督目标检测方法

    公开(公告)号:CN108985385A

    公开(公告)日:2018-12-11

    申请号:CN201810878970.X

    申请日:2018-08-03

    Applicant: 厦门大学

    Inventor: 纪荣嵘 沈云航

    Abstract: 基于生成对抗学习的快速弱监督目标检测方法,属于计算机视觉技术领域。1)使用随机梯度下降算法训练代理器直到收敛;2)使用随机梯度下降算法训练生成器3)使用随机梯度下降算法训练判别器 4)使用随机梯度下降算法训练代理器 结合生成器的反馈候选区域和原来的候选区域作为输入的候选区域,并且迭代一个数据回合;5)重复步骤2)~4)直到收敛;6)输入图像到生成器中,获得目标检测结果。

    基于全局误差重建的卷积神经网络的压缩方法

    公开(公告)号:CN108197707A

    公开(公告)日:2018-06-22

    申请号:CN201711494011.X

    申请日:2017-12-31

    Applicant: 厦门大学

    Inventor: 纪荣嵘 林绍辉

    Abstract: 基于全局误差重建的卷积神经网络的压缩方法,涉及深度神经网络的压缩。针对传统的基于低秩分解的层内压缩技术无法获得高精度分类效果的缺点,考虑层间的各种非线性关系,参数层间的联合优化,代替单层的优化,构建全局误差最小化优化方案,提供一种基于全局误差重建的卷积神经网络的压缩方法。包括以下步骤:1)不考虑非线性激活函数,利用层内线性响应的低秩分解方法,初始压缩模型大小;2)利用网络层内矩阵的低秩分解,并考虑非线性激活对单层的影响,建立非线性层内压缩优化,提升非线性层内矩阵压缩的精度;3)层内压缩的误差,随着逐层增加而增加,构建全局误差重建提高压缩模型的全局判别力。

    一种基于深度神经网络的智能视觉问答模型

    公开(公告)号:CN108170816A

    公开(公告)日:2018-06-15

    申请号:CN201711494024.7

    申请日:2017-12-31

    Applicant: 厦门大学

    Inventor: 纪荣嵘 周奕毅

    Abstract: 一种基于深度神经网络的智能视觉问答模型,涉及人工智能领域中的智能视觉问答。包括以下步骤:智能问答数据预处理;图像深度卷积特征抽取;文本问题深度特征抽取;智能视觉问题处理;基于枢纽通道的视觉智能问答。采用多任务学习框架进行全新的深度学习网络设计以解决智能视觉问答中训练数据缺乏与回答原因不可知等两大问题。设计了一新型的深度学习网络结构,该网络在进行智能视觉问答的同时能够对给出的答案进行原因说明,该网络结构包含一视觉描述模块,可根据问题内容针对性地对图像内容进行描述。该网络结构采用了枢纽结构设计,能将图像描述、文本问答等领域的数据引入到视觉智能问答任务中来。

    一种基于弱监督多模态深度学习的微博情感预测方法

    公开(公告)号:CN108108849A

    公开(公告)日:2018-06-01

    申请号:CN201711493988.X

    申请日:2017-12-31

    Applicant: 厦门大学

    Inventor: 纪荣嵘 陈福海

    Abstract: 一种基于弱监督多模态深度学习的微博情感预测方法,涉及多模态情感分析领域。包括以下步骤:微博多模态数据预处理;多模态深度学习模型的弱监督训练;多模态深度学习模型的微博情感预测。解决了在微博多通道内容上的情感预测中存在的多模态判别表示和数据标签受限等问题,实现最终多模态的情感类别预测,实验评价标准为准确度,反映了预测的微博情感极性类别与事先标注的情感类别之间的一致程度。在性能上有较大的提升,考虑到多模态之间的关联性,因此在整体的多模态性能上取得最优的效果。在不同情感类别上都取得较为理想的分类效果。经过弱监督训练,使得文本和图像模态的初始模型在情感分类上效果有明显的提升。

    一种基于特定类别空间约束的弱监督目标检测方法

    公开(公告)号:CN108062574A

    公开(公告)日:2018-05-22

    申请号:CN201711494009.2

    申请日:2017-12-31

    Applicant: 厦门大学

    Inventor: 纪荣嵘 沈云航

    Abstract: 一种基于特定类别空间约束的弱监督目标检测方法。使用候选区域提取算法提取所有训练图像的候选区域;在训练弱监督目标检测器中,提取每一张训练图像的特定类别的像素梯度图,特定类别的像素梯度图反应像素对特定类别的响应,粗略估计目标物体的形状和位置;计算对应候选区域包含目标物体的置信度;把候选区域的置信度引入候选区域分类得分的聚合过程中,包含候选区域的分类得分和候选区域的空间信息;候选区域的空间约束排除背景噪声区域,获得更准确的模型;在训练过程中使用多中心正则化保证模型的学习过程稳定;在测试弱监督目标检测器中,把图像以及对应的候选区域输入模型,模型输出每个候选区域对于每个类别的预测得分。

    一种基于参数线性约束的多任务分词方法

    公开(公告)号:CN106844345A

    公开(公告)日:2017-06-13

    申请号:CN201710065928.1

    申请日:2017-02-06

    Applicant: 厦门大学

    Abstract: 一种基于参数线性约束的多任务分词方法,涉及基于深度学习的自然语言处理。使用不同分词标准的数据对不同分词模型进行初步训练;对于不同分词模型,共享部分参数,对另外的参数建立线性约束关系;建立统一的目标函数,进行不同分词模型的训练。利用参数的线性约束来建模不同分词模型之间的关系,使得不同分词标准模型的训练能够使用另外分词标准的训练数据。本发明算法明确、思路清晰,利用这个方法能够扩增现有分词模型的训练数据,提高中文分词任务的性能,更好地服务于基于分词的其他自然语言处理任务。

    一种基于多模态超图学习的微博情感预测方法

    公开(公告)号:CN106776554A

    公开(公告)日:2017-05-31

    申请号:CN201611128388.9

    申请日:2016-12-09

    Applicant: 厦门大学

    Abstract: 一种基于多模态超图学习的微博情感预测方法,属于多模态情感分析领域。针对在微博多通道内容上的情感预测中存在的问题,提供一种基于多模态超图学习的微博情感预测方法。包括以下步骤:1)提取微博多模态特征;2)计算微博间距离;3)构建多模态超图模型;4)超图学习。更好关联不同的模态解决模态间的独立性,在微博情感预测上有比较好的效果。

    一种用于长文本大语言模型的层次辅助稀疏注意方法

    公开(公告)号:CN119990363A

    公开(公告)日:2025-05-13

    申请号:CN202510003045.2

    申请日:2025-01-02

    Applicant: 厦门大学

    Abstract: 本发明提供一种用于长文本大语言模型的层次辅助稀疏注意方法,所述方法包括:步骤S1、在每一层大语言模型层中增加一个参数共享的偏移分支得到新的大语言模型;步骤S2、将上下文切分成多个片段输入到大语言模型层内得到局部特征输出,同时对每个片段进行池化,输入到同层的偏移分支中得到低分辨率表示;步骤S3、将上一层的偏移分支输出的低分辨率表示拼接到当前层的大语言模型层的局部特征,输出给下一层大语言模型层;步骤S4、对新的大语言模型进行微调,并在其最后一个大语言模型层后接入一个语言建模头,用以输出下游任务的处理结果。采用本发明方法可有效提高推理效率的同时确保模型性能不被降低,降低生成首个词元时可能面临显著的延迟。

    用于N:M稀疏微调的自适应蒸馏方法

    公开(公告)号:CN117172293B

    公开(公告)日:2025-05-13

    申请号:CN202311122615.7

    申请日:2023-09-01

    Applicant: 厦门大学

    Abstract: 用于N:M稀疏微调的自适应蒸馏方法,涉及人工神经网络的压缩与加速。包括以下几个步骤:1)使用基于权重大小的N:M剪枝方案剪枝预训练模型。2)利用自适应知识蒸馏将预训练模型中的知识迁移到N:M稀疏模型中,其中自适应知识蒸馏可以根据学生模型特征图和教师模型特征图中激活值的差异,自动将学生特征图中差异较大的激活值替换成教师特征图中的激活值,来减少学生模型学习的难度,加快学生模型微调的收敛速度。可以通过使用提出的自适应知识蒸馏方法来加快预训练模型的N:M稀疏微调,并且降低由N:M稀疏带来的精度损失。

Patent Agency Ranking