-
公开(公告)号:CN111612704B
公开(公告)日:2023-08-04
申请号:CN202010330792.4
申请日:2020-04-24
申请人: 广东省智能制造研究所
IPC分类号: G06T5/00 , G06N3/0464
摘要: 本发明公开了一种连续太赫兹波图像的带状纹理噪声去噪方法,涉及图像去噪技术领域,该方法利用卷积自编码网络将无带状纹理噪声的背景图像映射到嵌入网络张量,并通过内部解码网络将其映射到原图像;同时利用深度神经网络(DNN)将含有带状纹理噪声的背景图像集合映射到嵌入空间中靠近嵌入网络张量处;对实际图像进行去噪时,仅需要通过DNN和解码网络的映射,即可进行背景纹理噪声的自适应去除。本发明与传统的方案相比能够在不增加去噪成本和计算复杂度的前提下,满足实时去噪的需求;在去噪过程中迁移学习了背景图像向无噪声背景图像的映射特征,可自适应匹配当前连续太赫兹成像系统带状纹理噪声特征,去噪适应性强。
-
公开(公告)号:CN111837185A
公开(公告)日:2020-10-27
申请号:CN201880089090.2
申请日:2018-12-07
申请人: 广东省智能制造研究所
摘要: 一种基于约束半非负矩阵分解的声音分类方法、装置及介质,该声音分类包括:将训练声音数据样本和测试声音数据样本表示为半非负矩阵(S1);根据半非负矩阵构建类别约束矩阵,并根据半非负矩阵构建稀疏约束矩阵(S2);在类别约束和稀疏约束下,对半非负矩阵进行约束半非负矩阵分解,得到对应的系数矩阵;将系数矩阵中对应于训练声音数据样本的低维表示以及训练声音数据样本的类别信息作为训练数据,对分类模型进行训练得到分类器(S3);将系数矩阵中对应于测试声音数据样本的低维表示输入分类器,输出测试声音数据样本的分类结果(S4)。该方法有效利用了训练声音数据样本的类别信息并使得降维后的低维表示具有稀疏性,从而得到更具区分性的样本低维表示,提高了声音数据分类方法的正确率。
-
公开(公告)号:CN108899048A
公开(公告)日:2018-11-27
申请号:CN201810443175.8
申请日:2018-05-10
申请人: 广东省智能制造研究所
摘要: 本发明公开了一种基于信号时频分解的声音数据分类方法,该方法包括:对被检金属罐装产品施加激励,使其振动;收集被检产品振动产生的声音,并进行采样处理得到数字化的声信号;处理声信号,得到其频谱信号;对声信号和其频谱信号分别进行信号分解,得到能表征产品质量的时域特征矩阵W1和频域特征W2;将{W1,W2}作为产品质量特征数据,输入到产品质量计算模型进行运算,该模型的运算结果为产品质量参数R;计算R与合格产品质量标准值δ的差值的绝对值D;如果D小于阈值T,则被检产品合格,反之,被检产品不合格。本发明用于基于声发射技术的金属罐装产品质量检测,能有效提高检测正确率。
-
公开(公告)号:CN104519493B
公开(公告)日:2018-11-23
申请号:CN201410798265.0
申请日:2014-12-17
申请人: 广东省智能制造研究所
摘要: 本发明提供一种多个蓝牙设备组网的方法:通过广播/扫描白名单配置,约束组网范围;通讯时,蓝牙设备通过广播方式发送数据包,网络中其他蓝牙设备通过扫描方式获取数据,并对数据进行分析,根据广播包的发送设备地址、接收设备地址和接收此广播包的次数决定对该广播包采取丢弃、执行指令或转发的处理方式。采用这种技术方案,可以突破蓝牙主设备连接从设备的数量限制,拓展了蓝牙组网的设备规模,并且通过数据转发方式,扩展了蓝牙组网通讯的规模、距离限制。
-
公开(公告)号:CN108592775A
公开(公告)日:2018-09-28
申请号:CN201810443898.8
申请日:2018-05-10
申请人: 广东省智能制造研究所
IPC分类号: G01B7/02
摘要: 本发明公开了一种电感式位移传感器及其位移测量方法,其用于检测金属材料的位移。所述电感式位移传感器被设计成激励信号可调的精密高速电感测量部分和根据电感变化计算位移部分。所述电感式位移传感器包括一个微控制器,该微控制器包含数模转换器、模数转换器、PWM控制器。微控制器通过数模转换器输出激励信号,通过改变输出方式可调整激励信号的幅度和频率。激励信号加载在带电感探头的四臂电桥上。该电桥的两个输出信号分别被平均切割成四份,每份包含九十度相位差。平均切割用PWM信号控制模拟开关实现。对输出的八份信号做滑动平均并采样。根据八份信号的滑动平均值可计算电感探头的电感分量。根据该分量的变化可计算位移。
-
公开(公告)号:CN107909015A
公开(公告)日:2018-04-13
申请号:CN201711056964.8
申请日:2017-10-27
申请人: 广东省智能制造研究所
CPC分类号: G06K9/0063 , G06K9/6256 , G06K9/6265 , G06K2009/00644 , G06N3/08
摘要: 本发明公开了一种基于卷积神经网络与空谱信息融合的高光谱图像分类方法,包括如下步骤:S1、提取高光谱图像每一像素点的X、Y轴坐标作为空间信息,并将空间信息与光谱信息合并,作为一个样品的特征信息;S2、随机划分训练集与测试集数据;S3、将包括空间信息与光谱信息的训练集样本放入一维卷积神经网络,训练分类模型;S4、将包括空间信息和光谱信息的训练集样本放入分类模型,进行分类预测。其中卷积神经网络采用不同大小的卷积核进行卷积操作,可有效提取高光谱中光谱维中不同分辨率的特征信息;此外,同时将光谱维信息与空间维信息输入神经网络进行学习,充分利用了高光谱“双高分辨率”的特征,算法结构简单且能够显著提升分类精度。
-
公开(公告)号:CN110320162B
公开(公告)日:2021-04-23
申请号:CN201910420079.6
申请日:2019-05-20
申请人: 广东省智能制造研究所
摘要: 本发明公开一种基于生成对抗网络的半监督高光谱数据定量分析方法,其步骤如下:(1)获取高光谱样本数据;(2)构建样本训练集与预测集,其中无标签的预测集样本也用于半监督训练;(3)构建基于生成对抗网络的回归网络,包括一个生成样本的生成器网络,和一个同时具有判别样本真伪与输出定量分析值功能的判别器/回归器网络;(4)构建生成对抗网络的损失函数,包括判别器损失函数,回归器损失函数,及具备样本分布匹配功能的生成器损失函数;(5)训练生成对抗网络;(6)采用训练好的回归器进行定量分析值的预测。本发明采用生成对抗网络来生成样本,并使用样本分布匹配策略来补充现有无标签样本集,提升了高光谱定量分析的精度。
-
公开(公告)号:CN111539449A
公开(公告)日:2020-08-14
申请号:CN202010205408.8
申请日:2020-03-23
申请人: 广东省智能制造研究所
摘要: 本发明公开了一种基于二阶融合注意力网络模型的声源分离及定位方法,包括以下步骤:S1:使用混合-分离策略训练二阶融合注意力网络,每次训练时在视频流样本中随机挑选出两个训练样本,切分为声音信号和视觉图像信号;S2:将声音信号以线性方式进行混合,形成混合声音信号,利用短时傅里叶变换STFT将声音信号转化得到频率谱信息,计算真值掩码;S3:构建训练阶段二阶融合注意力网络模型;S4:构建测试阶段二阶融合注意力网络模型,完成声源分离及定位。本发明将声音和视觉模态进行有效的二阶融合,提升了声源分离的质量以及声源定位的准确率,补足了当前主流声源分离模型利用单一声音模态往往需要对声音进行人工标注并预先指定声源类别的缺陷。
-
公开(公告)号:CN111539448A
公开(公告)日:2020-08-14
申请号:CN202010188012.7
申请日:2020-03-17
申请人: 广东省智能制造研究所
摘要: 本发明公开了一种基于元学习的少样本图像分类方法,涉及计算机视觉图像识别领域,包括以下步骤:S1:将图像集分为训练集、测试集;S2:提取训练集所有图像的surf特征,采用聚类方法对surf特征做聚类,得到训练集视觉词典;S3:计算训练集每一幅图像的视觉词袋,形成训练集视觉词袋检索库;S4:将训练集、测试集分别划分为多个子任务,每个子任务包括支撑集、查询集;S5:训练过程:采用MAML算法,对训练集多个子任务进行元训练,学习一个最优的初始参数;S6:测试过程:每次测试一个测试集子任务的查询集图像。本发明与传统的方案相比具备少样本快速学习、泛化能力。
-
公开(公告)号:CN110706720A
公开(公告)日:2020-01-17
申请号:CN201910757522.9
申请日:2019-08-16
申请人: 广东省智能制造研究所
摘要: 本发明公开了一种端到端无监督深度支撑网络的声学异常检测方法,其步骤如下:将声学信号转化为梅尔频谱的声学谱图信号;将搜集到的声音信号划分为训练、验证、测试集,其中验证集负责用来确定异常阈值;构建无监督的深度支撑网络,包括特征学习网络负责提取声学特征,深度检测网络负责判决声音信号是否异常;构建深度支撑网络的损失函数,包括特征学习的最小二乘损失函数,以及深度检测网络的软间隔铰链损失函数;训练验证集,计算最优检测阈值;采用训练好的深度支撑网络定量计算声学的异常值。本发明降低了计算成本,使用了精确率、召回率以及F1值作为判决尺度,减少了算法的人为干预性,提升了高光谱定量分析的精度。
-
-
-
-
-
-
-
-
-