一种基于生成对抗网络的半监督高光谱数据定量分析方法

    公开(公告)号:CN110320162B

    公开(公告)日:2021-04-23

    申请号:CN201910420079.6

    申请日:2019-05-20

    IPC分类号: G01N21/25 G06K9/62 G06N3/04

    摘要: 本发明公开一种基于生成对抗网络的半监督高光谱数据定量分析方法,其步骤如下:(1)获取高光谱样本数据;(2)构建样本训练集与预测集,其中无标签的预测集样本也用于半监督训练;(3)构建基于生成对抗网络的回归网络,包括一个生成样本的生成器网络,和一个同时具有判别样本真伪与输出定量分析值功能的判别器/回归器网络;(4)构建生成对抗网络的损失函数,包括判别器损失函数,回归器损失函数,及具备样本分布匹配功能的生成器损失函数;(5)训练生成对抗网络;(6)采用训练好的回归器进行定量分析值的预测。本发明采用生成对抗网络来生成样本,并使用样本分布匹配策略来补充现有无标签样本集,提升了高光谱定量分析的精度。

    一种基于二阶融合注意力网络模型的声源分离及定位方法

    公开(公告)号:CN111539449A

    公开(公告)日:2020-08-14

    申请号:CN202010205408.8

    申请日:2020-03-23

    IPC分类号: G06K9/62 G06N3/04 G06N3/08

    摘要: 本发明公开了一种基于二阶融合注意力网络模型的声源分离及定位方法,包括以下步骤:S1:使用混合-分离策略训练二阶融合注意力网络,每次训练时在视频流样本中随机挑选出两个训练样本,切分为声音信号和视觉图像信号;S2:将声音信号以线性方式进行混合,形成混合声音信号,利用短时傅里叶变换STFT将声音信号转化得到频率谱信息,计算真值掩码;S3:构建训练阶段二阶融合注意力网络模型;S4:构建测试阶段二阶融合注意力网络模型,完成声源分离及定位。本发明将声音和视觉模态进行有效的二阶融合,提升了声源分离的质量以及声源定位的准确率,补足了当前主流声源分离模型利用单一声音模态往往需要对声音进行人工标注并预先指定声源类别的缺陷。

    一种端到端无监督深度支撑网络的声学异常检测方法

    公开(公告)号:CN110706720A

    公开(公告)日:2020-01-17

    申请号:CN201910757522.9

    申请日:2019-08-16

    摘要: 本发明公开了一种端到端无监督深度支撑网络的声学异常检测方法,其步骤如下:将声学信号转化为梅尔频谱的声学谱图信号;将搜集到的声音信号划分为训练、验证、测试集,其中验证集负责用来确定异常阈值;构建无监督的深度支撑网络,包括特征学习网络负责提取声学特征,深度检测网络负责判决声音信号是否异常;构建深度支撑网络的损失函数,包括特征学习的最小二乘损失函数,以及深度检测网络的软间隔铰链损失函数;训练验证集,计算最优检测阈值;采用训练好的深度支撑网络定量计算声学的异常值。本发明降低了计算成本,使用了精确率、召回率以及F1值作为判决尺度,减少了算法的人为干预性,提升了高光谱定量分析的精度。

    一种基于生成对抗网络的半监督高光谱数据定量分析方法

    公开(公告)号:CN110320162A

    公开(公告)日:2019-10-11

    申请号:CN201910420079.6

    申请日:2019-05-20

    IPC分类号: G01N21/25 G06K9/62 G06N3/04

    摘要: 本发明公开一种基于生成对抗网络的半监督高光谱数据定量分析方法,其步骤如下:(1)获取高光谱样本数据;(2)构建样本训练集与预测集,其中无标签的预测集样本也用于半监督训练;(3)构建基于生成对抗网络的回归网络,包括一个生成样本的生成器网络,和一个同时具有判别样本真伪与输出定量分析值功能的判别器/回归器网络;(4)构建生成对抗网络的损失函数,包括判别器损失函数,回归器损失函数,及具备样本分布匹配功能的生成器损失函数;(5)训练生成对抗网络;(6)采用训练好的回归器进行定量分析值的预测。本发明采用生成对抗网络来生成样本,并使用样本分布匹配策略来补充现有无标签样本集,提升了高光谱定量分析的精度。

    基于邻域信息深度学习的高光谱图像分类方法

    公开(公告)号:CN107798348A

    公开(公告)日:2018-03-13

    申请号:CN201711056924.3

    申请日:2017-10-27

    IPC分类号: G06K9/62 G06N3/04

    摘要: 本发明公开了一种基于邻域信息深度学习的高光谱数据分类方法,包括如下步骤:对高光谱图像数据,随机划分训练集与测试集;以每一像素点n×n邻域内训练集样本的类归属与n×n邻域内所有样本的前l个主成分得分,作为每一样本的空间信息;将训练集每一样本的光谱信息与空间信息共同放入卷积神经网络,进行模型训练;将测试集每一样本的光谱信息与空间信息共同放入模型,进行分类结果预测。本发明将每一像素点在图片中n×n邻域的训练集类归属与邻域内所有样本的主成分分布作为空间信息,并采用二维卷积神经网络对此邻域图像进行进一步的空间特征提取,再与光谱维信息进行融合,可显著提升分类精度,在高光谱数据分类领域具有良好的应用前景。

    基于约束半非负矩阵分解的声音分类方法、装置及介质

    公开(公告)号:CN111837185A

    公开(公告)日:2020-10-27

    申请号:CN201880089090.2

    申请日:2018-12-07

    IPC分类号: G10L25/51 G01L21/08

    摘要: 一种基于约束半非负矩阵分解的声音分类方法、装置及介质,该声音分类包括:将训练声音数据样本和测试声音数据样本表示为半非负矩阵(S1);根据半非负矩阵构建类别约束矩阵,并根据半非负矩阵构建稀疏约束矩阵(S2);在类别约束和稀疏约束下,对半非负矩阵进行约束半非负矩阵分解,得到对应的系数矩阵;将系数矩阵中对应于训练声音数据样本的低维表示以及训练声音数据样本的类别信息作为训练数据,对分类模型进行训练得到分类器(S3);将系数矩阵中对应于测试声音数据样本的低维表示输入分类器,输出测试声音数据样本的分类结果(S4)。该方法有效利用了训练声音数据样本的类别信息并使得降维后的低维表示具有稀疏性,从而得到更具区分性的样本低维表示,提高了声音数据分类方法的正确率。

    一种基于信号时频分解的声音数据分类方法

    公开(公告)号:CN108899048A

    公开(公告)日:2018-11-27

    申请号:CN201810443175.8

    申请日:2018-05-10

    摘要: 本发明公开了一种基于信号时频分解的声音数据分类方法,该方法包括:对被检金属罐装产品施加激励,使其振动;收集被检产品振动产生的声音,并进行采样处理得到数字化的声信号;处理声信号,得到其频谱信号;对声信号和其频谱信号分别进行信号分解,得到能表征产品质量的时域特征矩阵W1和频域特征W2;将{W1,W2}作为产品质量特征数据,输入到产品质量计算模型进行运算,该模型的运算结果为产品质量参数R;计算R与合格产品质量标准值δ的差值的绝对值D;如果D小于阈值T,则被检产品合格,反之,被检产品不合格。本发明用于基于声发射技术的金属罐装产品质量检测,能有效提高检测正确率。

    一种电感式位移传感器及其位移测量方法

    公开(公告)号:CN108592775A

    公开(公告)日:2018-09-28

    申请号:CN201810443898.8

    申请日:2018-05-10

    IPC分类号: G01B7/02

    摘要: 本发明公开了一种电感式位移传感器及其位移测量方法,其用于检测金属材料的位移。所述电感式位移传感器被设计成激励信号可调的精密高速电感测量部分和根据电感变化计算位移部分。所述电感式位移传感器包括一个微控制器,该微控制器包含数模转换器、模数转换器、PWM控制器。微控制器通过数模转换器输出激励信号,通过改变输出方式可调整激励信号的幅度和频率。激励信号加载在带电感探头的四臂电桥上。该电桥的两个输出信号分别被平均切割成四份,每份包含九十度相位差。平均切割用PWM信号控制模拟开关实现。对输出的八份信号做滑动平均并采样。根据八份信号的滑动平均值可计算电感探头的电感分量。根据该分量的变化可计算位移。

    基于卷积神经网络及空谱信息融合的高光谱图像分类方法

    公开(公告)号:CN107909015A

    公开(公告)日:2018-04-13

    申请号:CN201711056964.8

    申请日:2017-10-27

    IPC分类号: G06K9/00 G06K9/62 G06N3/08

    摘要: 本发明公开了一种基于卷积神经网络与空谱信息融合的高光谱图像分类方法,包括如下步骤:S1、提取高光谱图像每一像素点的X、Y轴坐标作为空间信息,并将空间信息与光谱信息合并,作为一个样品的特征信息;S2、随机划分训练集与测试集数据;S3、将包括空间信息与光谱信息的训练集样本放入一维卷积神经网络,训练分类模型;S4、将包括空间信息和光谱信息的训练集样本放入分类模型,进行分类预测。其中卷积神经网络采用不同大小的卷积核进行卷积操作,可有效提取高光谱中光谱维中不同分辨率的特征信息;此外,同时将光谱维信息与空间维信息输入神经网络进行学习,充分利用了高光谱“双高分辨率”的特征,算法结构简单且能够显著提升分类精度。

    一种端到端无监督深度支撑网络的声学异常检测方法

    公开(公告)号:CN110706720B

    公开(公告)日:2022-04-22

    申请号:CN201910757522.9

    申请日:2019-08-16

    摘要: 本发明公开了一种端到端无监督深度支撑网络的声学异常检测方法,其步骤如下:将声学信号转化为梅尔频谱的声学谱图信号;将搜集到的声音信号划分为训练、验证、测试集,其中验证集负责用来确定异常阈值;构建无监督的深度支撑网络,包括特征学习网络负责提取声学特征,深度检测网络负责判决声音信号是否异常;构建深度支撑网络的损失函数,包括特征学习的最小二乘损失函数,以及深度检测网络的软间隔铰链损失函数;训练验证集,计算最优检测阈值;采用训练好的深度支撑网络定量计算声学的异常值。本发明降低了计算成本,使用了精确率、召回率以及F1值作为判决尺度,减少了算法的人为干预性,提升了高光谱定量分析的精度。