-
公开(公告)号:CN117710818A
公开(公告)日:2024-03-15
申请号:CN202311760700.6
申请日:2023-12-20
Applicant: 西安邮电大学
IPC: G06V20/10 , G06V10/764 , G06V10/774 , G06V10/82 , G06N3/0455 , G06N3/0464 , G06N3/048 , G06N3/08
Abstract: 本发明公开了基于轻量级多尺度Transformer网络的高光谱图像分类方法及系统,包括:对输入的高光谱图像进行数据预处理,提取带有标签的图像块;划分训练集和测试集,构建高光谱图像分类模型,包括:提取图像块的初步特征,通过不同尺度的轻量级Transformer编码器提取特征,利用全局平均池化操作将特征转换为一维向量,进而利用全连接层进行分类;训练高光谱图像分类模型,进而根据高光谱图像分类模型,精确识别高光谱图像中的地物目标。本发明的基于轻量级多尺度Transformer网络的高光谱图像分类方法,能够降低模型的参数量,在缓解过拟合现象的同时取得相似甚至更好的性能,以实现更加快速、高精度的地物识别。
-
公开(公告)号:CN117746241A
公开(公告)日:2024-03-22
申请号:CN202311761296.4
申请日:2023-12-20
Applicant: 西安邮电大学
IPC: G06V20/10 , G06V10/764 , G06V10/82 , G06N3/0455 , G06N3/0464 , G06N3/0499 , G06N3/047 , G06N3/08
Abstract: 本发明公开了一种基于超级词元Transformer的高光谱图像分类方法,包括以下步骤:读取高光谱图像数据并将其切分成图像块、构建超级词元Transformer网络模型、对模型进行训练和测试并输出高光谱图像分类结果。本发明通过计算词元与其周围词元的关系将多个邻近词元转换为一个超级词元,大幅度减少了输入到多头自注意力计算的序列长度,使Transformer模型能够捕捉到一种更高效的全局注意力关系,并且采用卷积位置嵌入和卷积前馈网络,能够更好的增强局部信息表达,有效提升了高光谱图像分类效率和精度。
-