-
公开(公告)号:CN110659601B
公开(公告)日:2022-12-02
申请号:CN201910887781.3
申请日:2019-09-19
Applicant: 西安电子科技大学
IPC: G06V20/10 , G06V10/764 , G06V10/774 , G06N3/04 , G06N3/08
Abstract: 本发明提出一种基于中心点的深度全卷积网络遥感图像密集车辆检测方法,主要解决现有遥感影像中目标小且排列密集导致检测精度低的问题。其方案为:在遥感影像目标检测数据集中获取训练集和测试集;构建中心点深度全卷积网络密集车辆目标检测模型,设定目标中心点分类任务和目标尺寸回归任务的整体损失函数;将训练集输入到构建的网络模型中进行训练,得到训练好的车辆检测模型;将测试集输入训练好的车辆目标检测模型中,预测输出目标的中心点位置和目标尺寸。本发明降低了目标尺寸对密集场景目标定位的影响,提高了遥感影像中密集车辆目标的召回率,提升了车辆目标的检测精度。可用于城市规划,车流控制,交通监管及军事侦查。
-
公开(公告)号:CN113469088A
公开(公告)日:2021-10-01
申请号:CN202110776143.1
申请日:2021-07-08
Applicant: 西安电子科技大学
Abstract: 本发明公开了一种无源干扰场景下的SAR图像舰船目标检测方法及系统,将无源干扰条件下的SAR图像舰船目标检测数据集划分为训练样本和测试样本;构建注意力增强的Faster R‑CNN检测模型;对注意力增强的Faster R‑CNN检测模型的感兴趣区域分类任务、感兴趣区域位置回归任务、目标分类任务、目标位置回归任务和目标区域显著性检测任务的整体损失函数进行构建;利用训练样本对添加整体损失函数L后的注意力增强的Faster R‑CNN检测模型进行训练;将测试样本输入训练后包含权重参数的注意力增强的Faster R‑CNN检测模型中,预测输出测试样本中目标边界框位置,目标类别及目标的置信度分数,完成SAR图像舰船目标检测。本发明提升无源干扰场景下SAR图像舰船目标检测精度。
-
公开(公告)号:CN113469083B
公开(公告)日:2024-05-31
申请号:CN202110774969.4
申请日:2021-07-08
Applicant: 西安电子科技大学
IPC: G06V20/10 , G06V10/774 , G06V10/764 , G06V10/82 , G06N3/0464
Abstract: 本发明公开了一种基于抗锯齿卷积神经网络的SAR图像目标分类方法及系统,在SAR图像目标分类数据集中获取训练样本和测试样本;构建基于抗锯齿卷积神经网络的目标分类模型,设定目标分类任务损失函数;将训练样本输入到构建的网络模型中进行训练,得到训练好的分类模型;将测试样本输入训练好的分类模型中,预测输出目标类别及目标的置信度分数。本发明通过引入抗锯齿最大池化层提高模型的平移不变性,可以学习更多的目标上下文信息增强特征提取能力,提高了SAR图像目标分类精度,可用SAR图像目标自动识别系统,解决现有卷积神经网络缺乏平移不变性导致的SAR图像目标分类精度低的问题。
-
公开(公告)号:CN115561723A
公开(公告)日:2023-01-03
申请号:CN202211277900.1
申请日:2022-10-19
Applicant: 西安电子科技大学
Abstract: 本发明公开了一种基于深度强化学习的波形自适应遴选方法,包括:首先通过构建离散系统状态空间模型,对仿真场景进行建模;再通过最小化目标参数估计的克拉美罗下界构建目标熵状态,通过前后时刻的真实熵状态构建波形参数选择动作的真实熵奖励;再利用容积卡尔曼滤波器对当前时刻不同波形参数选择动作的下一时刻目标状态进行预测;再根据预测的熵状态构建预测熵奖励组成前馈循环通路;最后针对多节点场景设计下动作奖励函数,利用DQN网络对不同状态下不同动作的奖励期望进行价值逼近,得到最终的波形参数选择动作;本发明能够在动态环境中快速的适应环境学习动作选择策略,根据环境的反馈快速自适应的选择发射波形参数动作,鲁棒性强。
-
公开(公告)号:CN110659601A
公开(公告)日:2020-01-07
申请号:CN201910887781.3
申请日:2019-09-19
Applicant: 西安电子科技大学
Abstract: 本发明提出一种基于中心点的深度全卷积网络遥感图像密集车辆检测方法,主要解决现有遥感影像中目标小且排列密集导致检测精度低的问题。其方案为:在遥感影像目标检测数据集中获取训练集和测试集;构建中心点深度全卷积网络密集车辆目标检测模型,设定目标中心点分类任务和目标尺寸回归任务的整体损失函数;将训练集输入到构建的网络模型中进行训练,得到训练好的车辆检测模型;将测试集输入训练好的车辆目标检测模型中,预测输出目标的中心点位置和目标尺寸。本发明降低了目标尺寸对密集场景目标定位的影响,提高了遥感影像中密集车辆目标的召回率,提升了车辆目标的检测精度。可用于城市规划,车流控制,交通监管及军事侦查。
-
公开(公告)号:CN113469088B
公开(公告)日:2023-05-12
申请号:CN202110776143.1
申请日:2021-07-08
Applicant: 西安电子科技大学
IPC: G06V20/13 , G06V10/25 , G06V10/774 , G06V10/80 , G06V10/82 , G06N3/045 , G06N3/0464 , G06N3/048 , G06N3/08
Abstract: 本发明公开了一种无源干扰场景下的SAR图像舰船目标检测方法及系统,将无源干扰条件下的SAR图像舰船目标检测数据集划分为训练样本和测试样本;构建注意力增强的Faster R‑CNN检测模型;对注意力增强的Faster R‑CNN检测模型的感兴趣区域分类任务、感兴趣区域位置回归任务、目标分类任务、目标位置回归任务和目标区域显著性检测任务的整体损失函数进行构建;利用训练样本对添加整体损失函数L后的注意力增强的Faster R‑CNN检测模型进行训练;将测试样本输入训练后包含权重参数的注意力增强的Faster R‑CNN检测模型中,预测输出测试样本中目标边界框位置,目标类别及目标的置信度分数,完成SAR图像舰船目标检测。本发明提升无源干扰场景下SAR图像舰船目标检测精度。
-
-
公开(公告)号:CN119068217A
公开(公告)日:2024-12-03
申请号:CN202411122743.6
申请日:2024-08-15
Applicant: 西安电子科技大学
IPC: G06V10/62 , G06V10/44 , G06V10/80 , G06V10/40 , G06V10/77 , G06V10/75 , G06V10/74 , G06V10/143 , G06V20/40 , G06V10/82 , G06N3/0464 , G06N3/0455 , G06N3/084
Abstract: 本发明公开了基于特征局部校正和多模态信道稀疏选择提示的红外跟踪方法,包括以下步骤;步骤(1):将多模态视频按照时间顺序截取为多帧静止图像,得到数据集,对于训练阶段和跟踪阶段进行不同操作;步骤(2):使用数据集训练微调网络权重参数,得到算法网络权重,在跟踪阶段的网络加载权重时,使用该网络权重参数进行推理;步骤(3):加载训练阶段得到的网络权重参数,然后在视频首帧中标注出目标所在位置,将在未来帧中持续跟踪该目标,输出该目标的位置信息。本发明通过提示模块从语义空间两个角度考虑了不同模态特征的内在联系和互补性,提高了提示信息的有效性。通过特征校正模块,有效解决了因空间未对齐造成的特征偏差问题。
-
公开(公告)号:CN116400312A
公开(公告)日:2023-07-07
申请号:CN202310018283.1
申请日:2023-01-06
Applicant: 西安电子科技大学
IPC: G01S7/41
Abstract: 本发明提供一种基于迁移强化学习的快速网络化雷达节点遴选方法,属于雷达信号处理技术领域;包括构建蒙特卡洛搜索树并确定节点属性,根据选择决策,选出需被扩展的节点,通过节点选择,将从根节点至终止状态子节点的雷达节点集合作为一次遴选方案,采用评价函数进行模拟,确定性能,进而对所有访问过的节点,修改节点属性,并通过反向传播改变对应树节点的选择概率,结束一次训练迭代,多次训练后得出蒙特卡洛搜索树的最优节点遴选组合;通过对同一棵树的重复训练,保存训练结果参数,实时搜索时,微调训练后的蒙特卡洛搜索树,逐层遴选出最优的雷达节点组合;本发明可在数以亿计的节点组合中,在极短的时间给出满足实际要求的节点组合。
-
公开(公告)号:CN113469083A
公开(公告)日:2021-10-01
申请号:CN202110774969.4
申请日:2021-07-08
Applicant: 西安电子科技大学
Abstract: 本发明公开了一种基于抗锯齿卷积神经网络的SAR图像目标分类方法及系统,在SAR图像目标分类数据集中获取训练样本和测试样本;构建基于抗锯齿卷积神经网络的目标分类模型,设定目标分类任务损失函数;将训练样本输入到构建的网络模型中进行训练,得到训练好的分类模型;将测试样本输入训练好的分类模型中,预测输出目标类别及目标的置信度分数。本发明通过引入抗锯齿最大池化层提高模型的平移不变性,可以学习更多的目标上下文信息增强特征提取能力,提高了SAR图像目标分类精度,可用SAR图像目标自动识别系统,解决现有卷积神经网络缺乏平移不变性导致的SAR图像目标分类精度低的问题。
-
-
-
-
-
-
-
-
-