一种基于特征对齐的遥感场景下旋转目标检测方法

    公开(公告)号:CN113111727B

    公开(公告)日:2024-05-31

    申请号:CN202110297143.3

    申请日:2021-03-19

    摘要: 本发明公开了一种基于特征对齐的遥感场景下旋转目标检测方法,首先生成训练集,然后在Residual Network和Feature Pyramid Networks的基础上构建目标检测网络,对输入样本图像进行多尺度特征提取,再设计特征对齐模块,将由Feature Pyramid Networks网络得到的回归分支特征和分类分支特征进行特征融合,获得特征对齐后的有效特征,然后再经过由粗到细的检测框回归模块,所提取的特征利用通用卷积生成粗糙的检测框,之后再利用可变形卷积微调粗糙检测框,最终得到定位更加准确的检测框;最后对旋转检测网络进行训练,得到训练好的模型用于实际场景中的旋转目标检测任务。本发明相比现有技术直接预测检测框,检测框位置更加精确,算法的检测速度得到明显的提升。

    基于合成孔径雷达和可见光融合的遥感影像去云方法

    公开(公告)号:CN116993598A

    公开(公告)日:2023-11-03

    申请号:CN202310543571.9

    申请日:2023-05-15

    摘要: 本发明提出了一种基于合成孔径雷达和可见光融合的遥感影像去云方法,属于计算机视觉,图像修复与增强领域。该方法将不同模态的配对图像所表达的、相同的内容信息与模态特征解耦,以降低多模态图像之间的差异;设计模态差异补充机制,能够充分利用光学模态下的内容信息,逐像素地对SAR模态下的内容信息进行修正,从而显著地提升修复区域内外的一致性。使用本发明的方法,能够极大地降低多模态融合去云任务的难度,提升图像去云结果的准确性。并且模型对云层形状和大小变化的鲁棒性很强,因此在极端气象观测场景中,无需微调也能快速投入实际应用。

    基于全局注意力的实时去雨方法
    4.
    发明公开

    公开(公告)号:CN116362990A

    公开(公告)日:2023-06-30

    申请号:CN202310000119.8

    申请日:2023-01-01

    IPC分类号: G06T5/00 G06N3/08 G06N3/0464

    摘要: 本发明属于计算机视觉,图像复原与增强领域,具体涉及一种基于简化编解码架构和全局注意力的图像去雨方法。该方法首先搭建基于全局注意力的去雨模型,对基于全局注意力的实时去雨模型进行训练和验证后,使用经过验证的基于全局注意力的去雨模型对单幅图像进行实时去雨处理。本专利方法的主要思想是通过设计全局注意力模块,自适应地从空间和通道维度提取图像中雨水的特征,提高模型对特征的处理能力,并减少整个网络的参数量和计算量。使用本发明的方法,能够实现良好的图像去雨效果,而且由于模型计算量很小,运行效率较高,方便将其移植到手机等嵌入式平台上。

    一种基于多模态融合的动态场景去模糊方法

    公开(公告)号:CN112837245A

    公开(公告)日:2021-05-25

    申请号:CN202110283173.9

    申请日:2021-03-16

    发明人: 袁媛 苏伟 马单丹

    IPC分类号: G06T5/00 G06T5/50 G06K9/62

    摘要: 本发明公开了一种基于多模态融合的动态场景去模糊方法,首先采集真实场景中各种条件下的高帧率视频和对应的相机传感器数据构建数据集,然后设计多模态融合模块,将从输入图片中提取的模糊特征和相机运动特征融合,生成更加准确的模糊表征,再设计特征反卷积模块,根据模糊表征自动调整感受野和权重,动态聚合输入图片的特征以生成去模糊之后的结果,最后对去模糊网络进行训练,得到训练好的模型用于实际动态场景中的去模糊任务。本发明的方法能够实现灵活且高效地动态场景去模糊的目的,并且由于模型计算量很小,方便将其移植到手机等嵌入式平台上。

    一种基于多模态融合的动态场景去模糊方法

    公开(公告)号:CN112837245B

    公开(公告)日:2024-05-31

    申请号:CN202110283173.9

    申请日:2021-03-16

    发明人: 袁媛 苏伟 马单丹

    摘要: 本发明公开了一种基于多模态融合的动态场景去模糊方法,首先采集真实场景中各种条件下的高帧率视频和对应的相机传感器数据构建数据集,然后设计多模态融合模块,将从输入图片中提取的模糊特征和相机运动特征融合,生成更加准确的模糊表征,再设计特征反卷积模块,根据模糊表征自动调整感受野和权重,动态聚合输入图片的特征以生成去模糊之后的结果,最后对去模糊网络进行训练,得到训练好的模型用于实际动态场景中的去模糊任务。本发明的方法能够实现灵活且高效地动态场景去模糊的目的,并且由于模型计算量很小,方便将其移植到手机等嵌入式平台上。

    一种基于域变换的自编码器去模糊方法

    公开(公告)号:CN114066750A

    公开(公告)日:2022-02-18

    申请号:CN202111231774.1

    申请日:2021-10-22

    摘要: 本发明公开了一种基于域变换的自编码器去模糊方法,首先构建特征域提取模块,包括两个结构相同的自编码器网络,提取表征模糊图像和清晰图像的关键域信息的特征向量;然后构建由高阶ResNets融合模块和可变形卷积依次构成特征域转换模块,实现模糊域到清晰域的转换,输出清晰图像。本发明方法能够动态且高效地实现动态场景去模糊的效果,在降低模型求解难度的同时,提高图像去模糊的精度。

    一种基于特征对齐的遥感场景下旋转目标检测方法

    公开(公告)号:CN113111727A

    公开(公告)日:2021-07-13

    申请号:CN202110297143.3

    申请日:2021-03-19

    摘要: 本发明公开了一种基于特征对齐的遥感场景下旋转目标检测方法,首先生成训练集,然后在Residual Network和Feature Pyramid Networks的基础上构建目标检测网络,对输入样本图像进行多尺度特征提取,再设计特征对齐模块,将由Feature Pyramid Networks网络得到的回归分支特征和分类分支特征进行特征融合,获得特征对齐后的有效特征,然后再经过由粗到细的检测框回归模块,所提取的特征利用通用卷积生成粗糙的检测框,之后再利用可变形卷积微调粗糙检测框,最终得到定位更加准确的检测框;最后对旋转检测网络进行训练,得到训练好的模型用于实际场景中的旋转目标检测任务。本发明相比现有技术直接预测检测框,检测框位置更加精确,算法的检测速度得到明显的提升。

    基于双学生网络协同学习的高光谱图像分类方法及其系统

    公开(公告)号:CN118230067A

    公开(公告)日:2024-06-21

    申请号:CN202410514645.0

    申请日:2024-04-26

    摘要: 本发明涉及图像处理技术领域,具体涉及一种基于双学生网络协同学习的高光谱图像分类方法及其系统,该方法包括获取有标签和无标签的高光谱数据集;构建教师网络模型和两个学生网络模型,其中,教师网络模型的输出作为两个学生网络模型的输入;获取训练好的教师网络模型,以及预训练好的两个学生网络模型;获取训练好的两个学生网络模型;将待分类的高光谱图像经训练好的两个学生网络模型,通过置信度选出分类结果作为最终的输出。本发明通过将教师模型的知识转移给学生模型,使得学生模型能够在较小的计算资源下表现出与教师模型相当的性能,实现模型压缩,便于更好地部署和更快地推理。

    一种基于域变换的自编码器去模糊方法

    公开(公告)号:CN114066750B

    公开(公告)日:2024-03-05

    申请号:CN202111231774.1

    申请日:2021-10-22

    摘要: 本发明公开了一种基于域变换的自编码器去模糊方法,首先构建特征域提取模块,包括两个结构相同的自编码器网络,提取表征模糊图像和清晰图像的关键域信息的特征向量;然后构建由高阶ResNets融合模块和可变形卷积依次构成特征域转换模块,实现模糊域到清晰域的转换,输出清晰图像。本发明方法能够动态且高效地实现动态场景去模糊的效果,在降低模型求解难度的同时,提高图像去模糊的精度。