基于异质生成数据的神经网络无数据量化方法

    公开(公告)号:CN114937186B

    公开(公告)日:2024-06-07

    申请号:CN202210673423.4

    申请日:2022-06-14

    Applicant: 厦门大学

    Abstract: 基于异质生成数据的神经网络无数据量化方法,涉及人工神经网络的压缩与加速。包括以下步骤:1)使用标准高斯分布随机初始化假图片。2)优化初始化假图片直到迭代次数到达限制,使用局部物体加强,边界距离限制,软感知损失,BN损失对假图片进行更新;3)先量化神经网络,再利用优化好的假图片,使用蒸馏损失、交叉熵损失训练量化网络,直至到达预定的训练轮数;4)训练结束保留量化网络权重,即得量化后的量化网络。不需要真实数据,可直接从头训练得到量化网络,可在无需特定硬件支持的情况下,在通用硬件平台上实现网络压缩与加速。

    一种基于点标注指引的混合监督目标检测方法及装置

    公开(公告)号:CN117953206A

    公开(公告)日:2024-04-30

    申请号:CN202410342956.3

    申请日:2024-03-25

    Applicant: 厦门大学

    Abstract: 本发明公开了一种基于点标注指引的混合监督目标检测方法及装置,涉及计算机视觉技术领域。所述方法包括:构建点注意力模块,所述点注意力模块包括位置编码层、映射层和交叉注意力层,所述位置编码层用于将输入的点的坐标进行位置编码,再通过映射层得到对应的点特征向量;交叉注意力层用于将骨干网络输出的每层的特征图与映射层输出的点特征向量进行交叉注意力计算,以实现利用点标注去指导模型关注重要的区域;将所述点注意力模块插入骨干网络和Transformer网络/CNN网络之间得到混合监督目标检测模型;混合监督目标检测模型训练时,将图片和对应的点标注信息作为输入,在混合监督目标检测模型训练完成后,只需输入图片即可实现目标检测。

    一种基于混合样本与标签的数据增强的图像描述方法

    公开(公告)号:CN113837231B

    公开(公告)日:2024-02-27

    申请号:CN202111005885.0

    申请日:2021-08-30

    Applicant: 厦门大学

    Abstract: 一种基于混合样本与标签的数据增强的图像描述方法,涉及人工智能。1)采用目标检测器提取待描述图像的若干个候选区对应的特征;2)将步骤1)提取的图像特征按照服从beta分布的权值进行线性混合;3)将输入的语言数据以词嵌入的形式进行和步骤2)权值一样的线性混合;4)将混合后的图像特征和词嵌入输入到模型中,得到生成的句子;5)将生成的句子和被混合的两个图像的对应真实句子进行损失计算,采用一个混合的损失函数将两个损失值混合,并更新模型参数,实现数据增强,并用混合的输入和对应的混

    一种基于链式感知的指向性3D实例分割方法

    公开(公告)号:CN117593527A

    公开(公告)日:2024-02-23

    申请号:CN202410073323.7

    申请日:2024-01-18

    Applicant: 厦门大学

    Abstract: 本发明提供了3D实例分割技术领域的一种基于链式感知的指向性3D实例分割方法,包括:步骤S1、基于物体感知模块、关系推理模块以及跨模态交互模块构建一链式感知模型;步骤S2、获取待分割的3D实例的文本表述,通过物体感知模块识别文本表述中提到的物体;步骤S3、通过关系推理模块分别从3D实例以及文本表述中提取空间信息和关系词,并对空间信息和关系词进行关系推理,得到各物体之间的第一关联关系;步骤S4、通过跨模态交互模块从3D实例提取实例特征,并挖掘实例特征与文本表述之间的第二关联关系;步骤S5、基于第一关联关系以及第二关联关系,对文本表述指向的3D实例进行分割。本发明的优点在于:极大的提升了3D实例分割精度。

    基于Transformer结构的分层多尺度图像描述方法

    公开(公告)号:CN117422969A

    公开(公告)日:2024-01-19

    申请号:CN202310211307.5

    申请日:2023-03-07

    Applicant: 厦门大学

    Abstract: 基于Transformer结构的分层多尺度图像描述方法,涉及图像描述技术。针对现有的图像描述方法存在的视觉特征感知尺度单一,从而导致描述效果较差的缺点。提出一种多尺度的分层Transformer结构,可以利用多尺度的视觉特征信息完成准确的图像描述任务。为适应图像描述任务中的多尺度视觉特征设计三种新结构:跨尺度注意、对齐分配解码器和多尺度局部聚合。跨尺度注意是在不同尺度上实现全面的特征交互,并将特征转换为统一的张量形状。多尺度局部聚合的目的是聚合和增强多尺度特征,在此基础上进一步提出对齐分配解码器,自适应地选择最适合的特征尺度完成图像描述任务。

    一种参数高效的大规模预训练模型迁移方法

    公开(公告)号:CN117172309A

    公开(公告)日:2023-12-05

    申请号:CN202311123355.5

    申请日:2023-09-01

    Applicant: 厦门大学

    Abstract: 一种参数高效的大规模预训练模型迁移方法,涉及深度学习自然语言处理领域。1)模型预训练,计算每一个模块的得分;2)依据每一个模块的得分,采样一个模型结构;3)基于若干个采样得到的结构,通过比较动量地更新每一个模块的冗余度;4)短接具有最大冗余度的m个模块作为最终的网络。通过训练和比较过程,在给定短接m个模块的前提下,获得具有最佳性能的模型,并使模型可以在下游任务中发挥良好的性能。主要面向跨模态大规模预训练模型,通过强化学习方法,评估大规模预训练模型中每一个模块的冗余程度。通过对所有被认为是冗余的多模态预训练模块短接一个轻量级适应器,实现在训练阶段的效率提升,也提高模型在部署阶段的推理效率。

    一种基于软邻居聚合的点云分析方法

    公开(公告)号:CN116977752A

    公开(公告)日:2023-10-31

    申请号:CN202310949299.4

    申请日:2023-07-31

    Applicant: 厦门大学

    Abstract: 一种基于软邻居聚合的点云分析方法,涉及神经网络结构设计。针对最大池化函数在点云分析的邻居聚合过程中造成信息损失的问题,提供一种基于软邻居聚合的点云分析方法。包括以下步骤:1)使用神经网络更新点云中各点特征,使用球形查询获取点云中各个点的邻居点特征。2)使用SMA模块对点云中各个点的邻居点特征进行聚合。3)使用神经网络对每个SMA所汇集到的特征进行增强。4)使用解码器将特征映射回原空间,输出结果。通过对点云分析所使用神经网络的邻居聚合模块进行改进,增强点云分析神经网络的性能。相对于现有其他方法,可以在3D分割任务中达到更好的性能。

    一种基于知识蒸馏的无参考图像质量评价方法

    公开(公告)号:CN116912219A

    公开(公告)日:2023-10-20

    申请号:CN202310902071.X

    申请日:2023-07-21

    Applicant: 厦门大学

    Abstract: 一种基于知识蒸馏的无参考图像质量评价方法,属于计算机视觉领域。图像质量评估是对图像质量进行评估的过程。该方法利用特征蒸馏将非对称参考图像的信息引入到失真图像当中,并利用可学习的中间层来实现模型输出蒸馏,其蒸馏过程包含三个新颖的准则:1.随机掩码的特征蒸馏;2.可学习的模型输出蒸馏;3.局部特征和语义特征增强。基于该三个新颖的准则改进基于知识蒸馏的网络结构,使之适应图像质量评价的任务,有效弥补已有的图像质量评价网络结构在基于无参考图像的质量评价缺少比较知识,性能不足的缺陷。

    基于动态编码卷积核融合的神经网络剪枝方法

    公开(公告)号:CN113837376B

    公开(公告)日:2023-09-15

    申请号:CN202111005875.7

    申请日:2021-08-30

    Applicant: 厦门大学

    Inventor: 纪荣嵘 林明宝

    Abstract: 基于动态编码卷积核融合的神经网络剪枝方法,涉及人工神经网络的压缩与加速。1)计算当前训练轮数的温度系数;2)根据原始层的卷积核权重与当前训练轮数的温度系数,计算原始层每个卷积核的概率向量;3)根据原始层每个卷积核的概率向量,计算融合层卷积核的权重;4)前向传播过程只使用融合层,反向传播的梯度由当前融合层同时回传到当前原始层与上一个融合层;5)循环执行1)~4),直至达到预定的训练轮数;6)训练结束保留所有融合层的权重,即得剪枝后的紧凑卷积神经网络。无需依赖预训练模型与稀疏约束,可直接从头训练得到,卷积核个数更少,可在无需特定硬件支持的情况下,在通用硬件平台上实现网络压缩与加速。

    用于高效N:M稀疏训练的双向掩码
    30.
    发明公开

    公开(公告)号:CN116340769A

    公开(公告)日:2023-06-27

    申请号:CN202310198651.5

    申请日:2023-03-03

    Applicant: 厦门大学

    Abstract: 用于高效N:M稀疏训练的双向掩码,涉及人工神经网络的压缩与加速。1)在权重的行维度根据权重大小计算前向掩码;2)利用前向掩码计算稀疏前向传播过程中权重的最优行排列,对前向稀疏权重按行重排列;3)对重排列后的稀疏权重在列维度根据稀疏权重大小计算反向掩码,保持行置换和不行置换之间相同的输出,缩小单向和双向掩码之间的梯度差距;4)利用随机梯度下降方法对深度神经网络有效优化卷积层及其N:M稀疏性。在前向和反向传播的两个方向上分离稀疏掩码以获得训练加速度,实现前向和反向权重的稀疏性,克服密集的梯度计算的问题。实现保持性能的有效权重行重排列方法,很好地最小化传统单向掩码和本发明的双向掩码之间的梯度差距。

Patent Agency Ranking