-
公开(公告)号:CN110517285A
公开(公告)日:2019-11-29
申请号:CN201910718847.6
申请日:2019-08-05
Applicant: 西安电子科技大学
Abstract: 本发明提出了一种基于运动估计ME-CNN网络的大场景极小目标跟踪方法,解决了无需配准利用运动参数进行极小目标跟踪的问题,实现步骤为:获取目标运动估计网络ME-CNN的初始训练集D;构建估计目标运动的网络ME-CNN;用目标运动参数计算网络ME-CNN损失函数;判断是否为初始训练集;更新损失函数训练标签;得到预测目标运动位置初始模型;修正预测模型位置;用修正后的目标位置更新训练数据集,完成一帧的目标跟踪;得到遥感视频目标跟踪结果。本发明用深度学习网络ME-CNN预测目标运动位置,避免了跟踪中大场景图像配准,超模糊目标特征提取难的问题,减小目标特征依赖性,提高了超模糊视频中目标跟踪的准确度。
-
公开(公告)号:CN110322453B
公开(公告)日:2023-04-18
申请号:CN201910604264.0
申请日:2019-07-05
Applicant: 西安电子科技大学
IPC: G06T7/11 , G06N3/0464 , G06N3/08
Abstract: 本发明提出了一种基于位置注意力和辅助网络的3D点云语义分割方法,主要解决现有技术分割精度较低的问题,其实现方案是:获取训练集T和测试集V;构建3D点云语义分割网络,并设定该网络的损失函数,该网络包括依次级联的特征下采样网络,位置注意力模块,特征上采样网络和辅助网络;使用训练集T对该分割网络进行P轮有监督的训练:在每轮的训练过程中根据损失函数,调整网络参数,在P轮训练完成后,将分割精度最高的网络模型作为训练好的网络模型;将测试集V输入到训练好的网络模型中进行语义分割,得到每一个点的分割结果。本发明提高了3D点云语义分割精度,可用于自动驾驶、机器人、3D场景重建、质量检测,3D制图及智慧城市建设。
-
公开(公告)号:CN110245709B
公开(公告)日:2021-09-03
申请号:CN201910526990.5
申请日:2019-06-18
Applicant: 西安电子科技大学
Abstract: 本发明提出了一种基于深度学习和自注意力机制的3D点云数据语义分割方法,用于解决现有技术中存在的分割精度较低的技术问题,实现步骤包括:(1)获取训练集和验证集;(2)构建深度学习和自注意力机制的3D点云数据语义分割网络;(3)设置训练深度学习和自注意力机制的3D点云数据语义分割网络所需的损失函数;(4)对深度学习和自注意力机制的3D点云数据语义分割网络进行监督训练;(5)获取3D点云数据测试集的语义分割结果。本发明在深度学习网络中加入了自注意力模块,能够更好地提取包含各个特征通道之间关系的深层特征,从而提高分割精度。
-
公开(公告)号:CN110532859A
公开(公告)日:2019-12-03
申请号:CN201910648586.5
申请日:2019-07-18
Applicant: 西安电子科技大学
Abstract: 本发明公开了一种基于深度进化剪枝卷积网的遥感图像目标检测方法,解决现有遥感图像目标检测中未对检测速度及检测精度同时全局有效优化的问题。具体步骤:处理数据集;构建深度卷积特征提取子网;构建全卷积FCN检测子网;构建并训练深度卷积目标检测网络;构建并训练基于深度进化剪枝卷积网的目标检测网络;用训练好的模型对测试数据集进行目标检测;输出测试结果。本发明用深度可分离卷积构造反残差结构,在高检测精度的同时大幅降低模型参数量;目标检测网络与进化剪枝相结合,实现全局加速。本发明大幅降低计算量、显著提高目标检测速度,检测精度高,用于对遥感图像中的飞机与舰船等小目标进行快速、准确检测。
-
-
-