-
公开(公告)号:CN112699782B
公开(公告)日:2024-12-03
申请号:CN202011595694.X
申请日:2020-12-29
Applicant: 杭州电子科技大学
IPC: G06V10/774 , G06F18/10 , G06V10/764 , G06N3/0464 , G06N3/08 , G06V20/13
Abstract: 本发明公开了一种基于N2N和Bert的雷达HRRP目标识别方法,包括以下步骤:S1,收集数据并划分训练集和测试集,通过雷达采集的HRRP数据,需要对每个类别进行采样,分别选出训练集和测试集,之后进行合并,保证每个类别的数据形式都有被采样到;S2,用N2N模块进行降噪;S3,经过N2N模块的数据,经过卷积神经网络模块提取,调整下通道数,以便输入到Bert模型中;S4,用Bert处理CNN提取的有效特征,提取更加深层的特征;S5,在分类层对特征进行分类;S6,将经过S1处理后的HRRP测试集送入S5步骤中已训练完成的模型中进行测试。
-
公开(公告)号:CN112782660B
公开(公告)日:2023-06-30
申请号:CN202011599336.6
申请日:2020-12-29
Applicant: 杭州电子科技大学
IPC: G01S7/41
Abstract: 本发明公开了一种基于Bert的雷达目标识别方法,包括以下步骤:S1,收集数据并划分训练集和测试集,通过雷达采集的HRRP数据,需要对每个类别进行采样,分别选出训练集和测试集,之后进行合并,保证每个类别的数据形式都有被采样到;S2,对HRRP数据进行幂次变换,并使用注意力机制;S3,用Bert模型处理幂次变换的输出,提取更加深层的特征;S4,搭建分类器,对HRRP目标分类,对Bert模型的输出,再次使用注意力机制的思想,将更有效的特征进行保留,最后采用softmax对网络的输出进行分类;S5,将经过S1处理后的HRRP测试集送入S2、S3、S4步骤中已训练完成的模型中进行测试。
-
公开(公告)号:CN113987674A
公开(公告)日:2022-01-28
申请号:CN202111239763.8
申请日:2021-10-25
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种基于生成对抗网络的雷达HRRP持续学习方法,包括以下步骤:S1,使用的实测数据包括三种类型的飞机,分别为中型螺旋桨飞机An‑26、小型喷气式飞机Cessna和大型喷气式飞机Yark‑42,雷达在C波段工作,信号带宽为400MHz,脉冲重复频率为400Hz;S2,在预处理过程中对强度敏感性和平移敏感性进行处理;S3,在雷达HRRP自动目标识别的背景下,使用三种不同的HRRP增量学习任务设置;S4,根据持续学习相关方法在三种设置下训练经S2处理的HRRP数据,并为伪重播DGR方法重新设计解码器为条件自动编码器对抗网络CVAEGAN,其中CVAEGAN包括编码器、解码器、判别器和分类器;S5,使用CVAEGAN网络的DGR方法训练S2处理的HRRP数据。
-
公开(公告)号:CN114092793A
公开(公告)日:2022-02-25
申请号:CN202111342981.4
申请日:2021-11-12
Applicant: 杭州电子科技大学
Abstract: 本发明公开一种适用于复杂水下环境的端到端生物目标检测方法。包括以下步骤:S1,使用的水下数据集由水下机器人抓取,划分为训练集和测试集,先将水下图像通过上采样或下采样统一尺寸,然后进行归一化;S2,从已有水下数据集中挑选出成像质量较差的水下图像,通过直方图均衡的方法增强图像,形成增强网络的数据集;S3,将较差的水下图像作为增强网络的输入,增强后的图像作为真实值,训练水下图像增强网络;S4,使用全卷积网络提取经过网络增强后的水下训练集图像的特征,然后使用一阶段检测网络对水下图像的特征图进行目标识别和分类,得到已训练完的模型;S5,将处理后的水下测试集送入已经训练完的模型中测试。
-
公开(公告)号:CN112782660A
公开(公告)日:2021-05-11
申请号:CN202011599336.6
申请日:2020-12-29
Applicant: 杭州电子科技大学
IPC: G01S7/41
Abstract: 本发明公开了一种基于Bert的雷达目标识别方法,包括以下步骤:S1,收集数据并划分训练集和测试集,通过雷达采集的HRRP数据,需要对每个类别进行采样,分别选出训练集和测试集,之后进行合并,保证每个类别的数据形式都有被采样到;S2,对HRRP数据进行幂次变换,并使用注意力机制;S3,用Bert模型处理幂次变换的输出,提取更加深层的特征;S4,搭建分类器,对HRRP目标分类,对Bert模型的输出,再次使用注意力机制的思想,将更有效的特征进行保留,最后采用softmax对网络的输出进行分类;S5,将经过S1处理后的HRRP测试集送入S2、S3、S4步骤中已训练完成的模型中进行测试。
-
公开(公告)号:CN112699782A
公开(公告)日:2021-04-23
申请号:CN202011595694.X
申请日:2020-12-29
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种基于N2N和Bert的雷达HRRP目标识别方法,包括以下步骤:S1,收集数据并划分训练集和测试集,通过雷达采集的HRRP数据,需要对每个类别进行采样,分别选出训练集和测试集,之后进行合并,保证每个类别的数据形式都有被采样到;S2,用N2N模块进行降噪;S3,经过N2N模块的数据,经过卷积神经网络模块提取,调整下通道数,以便输入到Bert模型中;S4,用Bert处理CNN提取的有效特征,提取更加深层的特征;S5,在分类层对特征进行分类;S6,将经过S1处理后的HRRP测试集送入S5步骤中已训练完成的模型中进行测试。
-
公开(公告)号:CN114092793B
公开(公告)日:2024-05-17
申请号:CN202111342981.4
申请日:2021-11-12
Applicant: 杭州电子科技大学
IPC: G06V20/05 , G06V10/25 , G06V10/44 , G06V10/52 , G06V10/764 , G06V10/82 , G06T5/40 , G06N3/0464 , G06N3/0475 , G06N3/094 , G06N3/048
Abstract: 本发明公开一种适用于复杂水下环境的端到端生物目标检测方法。包括以下步骤:S1,使用的水下数据集由水下机器人抓取,划分为训练集和测试集,先将水下图像通过上采样或下采样统一尺寸,然后进行归一化;S2,从已有水下数据集中挑选出成像质量较差的水下图像,通过直方图均衡的方法增强图像,形成增强网络的数据集;S3,将较差的水下图像作为增强网络的输入,增强后的图像作为真实值,训练水下图像增强网络;S4,使用全卷积网络提取经过网络增强后的水下训练集图像的特征,然后使用一阶段检测网络对水下图像的特征图进行目标识别和分类,得到已训练完的模型;S5,将处理后的水下测试集送入已经训练完的模型中测试。
-
公开(公告)号:CN113238197B
公开(公告)日:2023-07-04
申请号:CN202011600963.7
申请日:2020-12-29
Applicant: 杭州电子科技大学
IPC: G01S7/41
Abstract: 本发明公开了一种基于Bert和BiLSTM的雷达目标识别及据判方法,包括以下步骤:S1,收集样本并划分训练集和测试集,进行数据预处理,包括强调归一化和重心对齐;S2,使用带注意力机制的幂次变换;S3,用Bert处理幂次变换的输出,提取更加深层的特征;S4,通过双向LSTM,加强特征提取;S5,使用softmax分类器分类;S6,将经过S1处理后的HRRP测试集送入S2、S3、S4,S5步骤中已训练完成的模型中进行测试。
-
公开(公告)号:CN112764024B
公开(公告)日:2023-06-16
申请号:CN202011600978.3
申请日:2020-12-29
Applicant: 杭州电子科技大学
IPC: G01S13/88
Abstract: 本发明公开了一种基于卷积神经网络和Bert的雷达目标识别方法,包括以下步骤:S1,收集数据并划分训练集和测试集,对数据进行强度归一化和重心对齐处理;S2,将上述处理的HRRP样本输入到CNN模块,用CNN对处理后的样本进行提取特征;S3,用Bert处理CNN提取的有效特征,提取更加深层的特征;S4,搭建分类器,对HRRP目标分类,对Bert的输出,再次使用注意力机制,将更有效的特征进行保留,最后采用softmax对网络的输出进行分类;S5,将经过S1处理后的HRRP测试集送入S2、S3、S4步骤中已训练完成的模型中进行测试。
-
公开(公告)号:CN113238197A
公开(公告)日:2021-08-10
申请号:CN202011600963.7
申请日:2020-12-29
Applicant: 杭州电子科技大学
IPC: G01S7/41
Abstract: 本发明公开了一种基于Bert和BiLSTM的雷达目标识别及据判方法,包括以下步骤:S1,收集样本并划分训练集和测试集,进行数据预处理,包括强调归一化和重心对齐;S2,使用带注意力机制的幂次变换;S3,用Bert处理幂次变换的输出,提取更加深层的特征;S4,通过双向LSTM,加强特征提取;S5,使用softmax分类器分类;S6,将经过S1处理后的HRRP测试集送入S2、S3、S4,S5步骤中已训练完成的模型中进行测试。
-
-
-
-
-
-
-
-
-