-
公开(公告)号:CN115527071A
公开(公告)日:2022-12-27
申请号:CN202211374754.4
申请日:2022-11-04
Applicant: 西安电子科技大学
IPC: G06V10/764 , G06V10/774 , G06V10/778 , G06V10/26 , G06T3/40
Abstract: 一种基于自监督拼图学习的SAR图像地物分类方法,利用自监督学习的思想挖掘无标签数据自身的特性作为监督信息,提升场景分类模型的特征提取能力,实现地物特征的有效表示;设计拼图作为上游拼图任务在无标签的数据上进行训练得到上游任务预训练模型,迁移预训练模型并对下游场景分类任务进行微调,在下游场景分类任务中使用少量有标签的样本,并在数景真实大场景下检验场景分类模型的分类性能,可以缓解有标签训练样本不足以及地物目标表现形式多样导致地物特征判别性不足的缺陷,提升场景分类模型的分类性能。
-
公开(公告)号:CN112053385A
公开(公告)日:2020-12-08
申请号:CN202010887465.9
申请日:2020-08-28
Applicant: 西安电子科技大学
Abstract: 本发明公开了一种基于深度强化学习的遥感视频遮挡目标跟踪方法,主要解决现有技术对遮挡目标检测准确率低的问题。其方案为:1)将每帧视频图像输入到深度强化学习网络进行特征提取,获得动作和状态信息;2)根据1)的结果,通过动作驱动方式获得运动矢量、置信值及目标的位置和大小;3)比较置信值与阈值的大小判断是否正确检测到目标:若是,则返回1);否则,利用视频的时空背景、目标外观模型和运动矢量,获得目标的遮挡信息;4)根据遮挡信息,驱动强化学习的动作获得遮挡目标的位置和大小;5)重复1)‑4),直到检测出所有序列。本发明提高了遥感视频中复杂多样的弱小目标检测率,可应用于对飞机、舰船或车辆的检测识别。
-
公开(公告)号:CN117079071A
公开(公告)日:2023-11-17
申请号:CN202310977804.6
申请日:2023-08-04
Applicant: 西安电子科技大学
IPC: G06V10/774 , G06V10/82 , G06V20/10 , G06V10/46 , G06V10/52 , G06V10/26 , G06N3/0455 , G06N3/0464 , G06N3/09
Abstract: 一种基于Transformer多尺度特征融合的高分辨SAR影像的农田提取方法、系统、设备及介质,方法包括:数据采集、数据增强、网络训练、结果预测和性能评估;系统、设备及介质:用于实现一种基于Transformer多尺度特征融合的高分辨SAR影像的农田提取方法;本发明通过使用多尺度特征提取的方法,并加以适合SAR影像农田语义分割的数据增强策略,解决了训练样本少、标注质量低等问题,提升了模型在有监督下农田提取的性能以及其泛化性能。
-
公开(公告)号:CN116935187A
公开(公告)日:2023-10-24
申请号:CN202310977795.0
申请日:2023-08-04
Applicant: 西安电子科技大学
IPC: G06V10/82 , G06V20/10 , G06V10/774 , G06N3/0455 , G06N3/0464 , G06N3/088 , G06N3/0895
Abstract: 基于掩码增强和自注意力机制的无监督域自适应SAR影像的水体提取方法、系统、设备及介质,方法包括:从存在域差异的高分辨率大场景SAR影像中,选取一张为源域图像,另一张为目标域图像,对源域和目标域图像分别标签,将图像及对应标签均进行裁剪;构建深度自注意力网络;建立掩码增强模块,获取包含局部信息的目标域掩码增强图像;使用无监督域自适应方法和掩码增强模块对深度自注意力网络在线自训练;重复并达到最大训练次数,获得训练好的网络模型;将目标域图像及对应标签送入训练好的网络模型进行水体提取,得到预测结果图,计算分类指标;系统、设备及介质用于实现该方法;本发明能够进一步关注不容易被提取的水体精细特征,且提高了模型泛化能力。
-
公开(公告)号:CN112053385B
公开(公告)日:2023-06-02
申请号:CN202010887465.9
申请日:2020-08-28
Applicant: 西安电子科技大学
Abstract: 本发明公开了一种基于深度强化学习的遥感视频遮挡目标跟踪方法,主要解决现有技术对遮挡目标检测准确率低的问题。其方案为:1)将每帧视频图像输入到深度强化学习网络进行特征提取,获得动作和状态信息;2)根据1)的结果,通过动作驱动方式获得运动矢量、置信值及目标的位置和大小;3)比较置信值与阈值的大小判断是否正确检测到目标:若是,则返回1);否则,利用视频的时空背景、目标外观模型和运动矢量,获得目标的遮挡信息;4)根据遮挡信息,驱动强化学习的动作获得遮挡目标的位置和大小;5)重复1)‑4),直到检测出所有序列。本发明提高了遥感视频中复杂多样的弱小目标检测率,可应用于对飞机、舰船或车辆的检测识别。
-
公开(公告)号:CN119693624A
公开(公告)日:2025-03-25
申请号:CN202411862638.6
申请日:2024-12-17
Applicant: 西安电子科技大学
Abstract: 本发明提供了一种遥感图像旋转目标检测快速部署方法、系统及设备。通过Vitis AI的量化工具和可执行文件,将遥感图像目标检测模型高效地映射到DPU上执行,从而最大化利用了FPGA的计算资源,提高了计算效率;而在映射期间,通过优化和等效替换DPU不支持的算子,确保了预设目标检测模型能够全部在DPU上运行,实现了算子的有效分配;其次,采用ONNX模型格式和Vitis AI的接口,增强了预设目标检测模型的兼容性和可扩展性,使得预设目标检测模型能够在不同的框架和硬件平台上无缝迁移和部署;最后,本发明简化了预设目标检测模型在硬件上的部署流程,降低了开发者的技术门槛和部署成本,同时提升了系统的实时性能。
-
公开(公告)号:CN115272242B
公开(公告)日:2024-02-27
申请号:CN202210909740.1
申请日:2022-07-29
Applicant: 西安电子科技大学
IPC: G06T7/00 , G06V10/764 , G06V10/80 , G06V10/82 , G06N3/045 , G06N3/084 , G06N3/0464
Abstract: 本发明涉及一种基于YOLOv5的光学遥感图像目标检测方法,其特征在于,包括:步骤1:获取待检测光学遥感图像,待检测光学遥感图像中包含有待检测的目标;步骤2:将待检测光学遥感图像裁剪为若干待检测光学遥感子图像;步骤3:将待检测光学遥感子图像输入至预先训练完成的YOLOv5目标检测模型中,得到对应的子图像检测结果,检测结果包括目标检测框以及分类‑交并比;步骤4:将子图像检测结果合并得到待检测光学遥感图像的检测结果;其中,YOLOv5目标检测模型包括级联的骨干网络、颈部网络和检测头,颈部网络为CSP‑BiFPN网络。本发明的基于YOLOv5的光学遥感图像目标检测方法的检测精(56)对比文件吴萌萌 等.基于自适应特征增强的小目标检测网络.激光与光电子学进展.2022,1-14.周旗开 等.基于改进YOLOv5s的光学遥感图像舰船分类检测方法.激光与光电子学进展.2022,摘要,第1-5节.Xiaoqi Wang 等.Improved YOLOv5 withBiFPN on PCB Defect Detection.2021 2ndInternational Conference on ArtificialIntelligence and Computer Engineering(ICAICE).2022,摘要,第I-IV节.王新 等.基于改进 YOLOV5算法的交警手势识别.电子测量技术.2022,摘要,第0-4节.
-
公开(公告)号:CN116469002A
公开(公告)日:2023-07-21
申请号:CN202310273227.2
申请日:2023-03-20
Applicant: 西安电子科技大学
IPC: G06V20/10 , G06V10/52 , G06V10/40 , G06V10/80 , G06V10/764 , G06V10/766 , G06V10/82 , G06N3/0464 , G06N3/0475 , G06N3/08 , G01S13/90
Abstract: 本发明公开了一种基于多级特征融合及混合注意力的SAR图像舰船目标检测方法,包括:构建用于SAR图像舰船目标检测的YOLO‑SP网络模型,所述YOLO‑SP网络模型包括依次连接的主干特征提取网络、多级特征融合网络和检测头;利用训练数据集对所构建的YOLO‑SP网络模型进行训练,计算损失函数,并反向更新模型参数,获得训练后的YOLO‑SP网络模型;对待检测的SAR图像进行数据标准化预处理,获得预处理后的像素矩阵;将预处理后的像素矩阵输入训练后的YOLO‑SP网络模型,对待检测的SAR图像进行舰船目标检测,获得目标的类别信息、位置信息和置信度。本发明通过多级特征提取策略与混合注意力机制,加强了目标特征信息的提取,提高对舰船目标的检测精度。
-
公开(公告)号:CN112052754B
公开(公告)日:2023-05-05
申请号:CN202010854358.6
申请日:2020-08-24
Applicant: 西安电子科技大学
IPC: G06V10/764 , G06V20/13 , G06V10/56 , G06V10/82 , G06N3/0464 , G06N3/084
Abstract: 本发明提出一种基于自监督表征学习的极化SAR影像地物分类方法,主要解决现有极化SAR深度卷积网络分类所需标签数多、鲁棒性差的问题。其方案是:对极化SAR原始数据进行极化相干矩阵模态表征提取和Pauli色彩模态表征提取;设计自监督表征学习损失函数及网络框架,并在不使用标签数据的情况下对该框架进行训练;将训练好的网络框架权重值迁移到深度卷积分类网络模型中;使用少量有标签样本对该深度卷积分类网络进行微调训练,得到训练好的分类器;将测试数据输入到训练好的分类器,得到最终的分类结果。本发明减少了对标签数据量的需求,提高了极化SAR深度卷积网络的分类精度和鲁棒性,可用于指导农业和海洋监测。
-
公开(公告)号:CN113095316A
公开(公告)日:2021-07-09
申请号:CN202110403036.4
申请日:2021-04-15
Applicant: 西安电子科技大学
Abstract: 本发明提出一种基于多级融合和角点偏移的遥感图像旋转目标检测方法,用于解决现有技术中存在的不同尺度目标的检测准确度低和检测过程运行速度慢的技术问题。本发明的实现步骤为:1、获取每个目标的旋转标注框的最小外接矩形;2、生成训练集;3、构建深度全卷积神经网络;4、训练深度全卷积神经网络;5、对图像中的旋转目标进行检测;6、对旋转目标的边框进行后处理;7、将所有目标的最终旋转检测框绘制到图像中对应的位置,得到检测结果图。本发明能够更好地区分图像中不同尺度目标,减少误检,提高了图像目标检测后目标框的精度。
-
-
-
-
-
-
-
-
-