基于频域动态卷积和Conformer的声源定位方法

    公开(公告)号:CN118655523A

    公开(公告)日:2024-09-17

    申请号:CN202410909950.X

    申请日:2024-07-08

    Applicant: 福州大学

    Abstract: 本发明提供一种基于频域动态卷积和Conformer的声源定位方法,首先对麦克风阵列捕获的多通道音频进行对数幅度谱和相位谱的计算,并进行串联融合。将融合后的特征输入CNN‑Conformer网络中,网络输出直接路径相位差,然后通过网络输出的直接路径相位差计算空间响应功率谱,最后对空间响应功率谱进行谱峰搜索得到最终的声源位置。本发明的模型将频域动态CNN和Conformer模块结合,能够释放卷积在频率维度上的平移等变性,缓解了时频谱图中不同频率对应相位差不同导致的定位误差,还可有效地捕获时频谱图中的时间‑频率模式和长期依赖关系。相比已有的CRNN模型,该方法拥有更强的空间特征捕获能力,能够有效提高声源定位精度。

    多层次自适应知识蒸馏的轻量化高分遥感场景分类方法

    公开(公告)号:CN115187863A

    公开(公告)日:2022-10-14

    申请号:CN202210837954.2

    申请日:2022-07-16

    Applicant: 福州大学

    Abstract: 本发明提供了一种多层次自适应知识蒸馏的轻量化高分遥感场景分类方法,包括以下步骤:步骤S1:将遥感图像数据分别送入教师模型和学生模型进行特征提取;步骤S2:将教师模型和学生模型提取的特征分别送入分类器,通过自适应温度机制对温度进行调整后,将概率分布输出进行蒸馏学习;步骤S3:将教师模型和学生模型提取的特征分别生成对应的空;步骤S4:将教师模型和学生模型提取的特征分别生成对应的通道间相关性,并从教师模型与学生模型的特征的通道间相关性进行蒸馏学习。应用本技术方案能够自适应调整知识蒸馏过程中输出层的蒸馏温度,使得学生模型有选择地学习教师模型的输出层概率分布知识。

    基于VIT的面向高光谱遥感图像分类径向累加位置编码系统

    公开(公告)号:CN114037899A

    公开(公告)日:2022-02-11

    申请号:CN202111453939.X

    申请日:2021-12-01

    Applicant: 福州大学

    Abstract: 本发明涉及一种基于VIT的面向高光谱遥感图像分类径向累加位置编码系统,包括:数据提取预处理模块,用于从数据集中截取数据,通过PCA主成分分析预处理,并将处理后的数据输入到模型框架中;位置编码模块,将输入的数据从中心点往四周叠加,使每个点的数据附带位置信息;数据拆分模块,将数据划分成多个块状区域,并分别拉伸成一维向量,输入到ViT模型中;主体模型模块,包含一个ViT模型,用于处理输入的数据,输出分类结果。本发明使输入到ViT的数据得以附加更加有效的空间信息,从而提升像素级分类精度。

    基于预采样和渐进式语义建模策略的室内场景重建方法

    公开(公告)号:CN119784941A

    公开(公告)日:2025-04-08

    申请号:CN202411836821.9

    申请日:2024-12-13

    Applicant: 福州大学

    Abstract: 本发明涉及一种基于预采样和渐进式语义建模策略的室内场景重建方法;包括以下步骤:构建场景重建模型,场景重建模型包括DFormer模块、主模型模块和语义建模模块;基于NYUv2数据集训练所构建的场景重建模型;将待重建的RGB图像和对应的深度图输入训练好的场景重建模型;主模型模块对输入的RGB图像和对应的深度图进行场景的渲染预采样,获取粗略的体积密度估计,并进行正式的体积和颜色渲染;DFormer模块将RGB图像转换成语义图像;语义建模模块以语义图像及对应的深度图作为输入,通过渐进式语义建模策略辅助细化体积和颜色的渲染效果;实现室内场景的重建。本发明能够显著提升场景重建的效率和精度,实现更精确的细节还原和更高效的渲染过程。

    一种人机协同的红外睑板腺图像量化分析方法

    公开(公告)号:CN115019379B

    公开(公告)日:2024-08-30

    申请号:CN202210609257.1

    申请日:2022-05-31

    Applicant: 福州大学

    Abstract: 本发明提出一种人机协同的红外睑板腺图像量化分析方法,包括以下步骤;步骤S1、对图像进行睑板腺腺体的语义分割,转化为二值化的腺体图像;步骤S2、识别二值化腺体图像中的单个腺体;步骤S3、自动获取腺体区域的中心线;步骤S4、基于中心线来自动计算单个腺体的长度;步骤S5、基于中心线来自动计算单个腺体的直径;步骤S6、根据上述步骤所得结果,自动计算单个腺体区域的面积;步骤S7、根据上述步骤所得结果,自动计算单个腺体区域的形变系数;步骤S8、根据上述步骤所得结果,自动计算腺体区域的显影值;步骤S9、计算图像中央区域的腺体区域所占百分比;本发明可高效而精准地识别腺体,实现睑板腺腺体主要生物参数的自动计算。

    基于拼图引导的深度特征融合的遥感图像场景分类方法

    公开(公告)号:CN113642456B

    公开(公告)日:2023-08-11

    申请号:CN202110921430.7

    申请日:2021-08-11

    Applicant: 福州大学

    Abstract: 本发明涉及一种基于拼图引导的深度特征融合的高分辨率遥感图像场景分类方法,首先对原始图像生成一个拼图,将拼图送入网络模型的浅层卷积块进行浅层特征的学习,然后将原始图像送入完整的网络模型学习深度全局语义特征,最后将浅层卷积块的输出特征和完整网络的最后一层卷积块的输出特征进行融合,进行分类。本发明的策略能引导网络更加关注模型浅层特征的学习,融合后的特征包含更为丰富的场景信息,增加了目标的可区分性,相比已有方法,该发明方法能够有效提高分类精度,同时提高模型的泛化能力。

    一种基于拼图引导的深度特征融合的高分辨率遥感图像场景分类方法

    公开(公告)号:CN113642456A

    公开(公告)日:2021-11-12

    申请号:CN202110921430.7

    申请日:2021-08-11

    Applicant: 福州大学

    Abstract: 本发明涉及一种基于拼图引导的深度特征融合的高分辨率遥感图像场景分类方法,首先对原始图像生成一个拼图,将拼图送入网络模型的浅层卷积块进行浅层特征的学习,然后将原始图像送入完整的网络模型学习深度全局语义特征,最后将浅层卷积块的输出特征和完整网络的最后一层卷积块的输出特征进行融合,进行分类。本发明的策略能引导网络更加关注模型浅层特征的学习,融合后的特征包含更为丰富的场景信息,增加了目标的可区分性,相比已有方法,该发明方法能够有效提高分类精度,同时提高模型的泛化能力。

Patent Agency Ranking