-
公开(公告)号:CN114445461A
公开(公告)日:2022-05-06
申请号:CN202210095429.8
申请日:2022-01-26
Applicant: 安徽大学
IPC: G06T7/246 , G06K9/62 , G06N3/04 , G06N3/08 , G06V10/74 , G06V10/774 , G06V10/764 , G06V10/82
Abstract: 本发明公开了一种基于非配对数据的可见光红外目标跟踪训练方法及装置,方法包括获取不成对的可见光图像和热红外图像,并生成候选样本;利用候选样本对可见光红外跟踪器进行训练,可见光红外跟踪器包括依次连接的模态特定模块、模态共享模块、模态自适应注意力模块和模态适配模块,模态特定模块包括第一模态特定网络和第二模态特定网络,可见光图像作为第一模态特定网络和模态共享模块的输入,热红外图像作为第二模态特定网络和模态共享模块的输入,第一、第二模态特定网络的输出分别与模态共享模块的输出融合后作为模态自适应注意力模块的输入。本发明摆脱了对大规模配准数据的依赖,提升目标跟踪性能。
-
公开(公告)号:CN114444596A
公开(公告)日:2022-05-06
申请号:CN202210095472.4
申请日:2022-01-26
Applicant: 安徽大学
Abstract: 本发明公开一种基于深度模态隐式学习的可见光图像显著目标检测方法,属于计算机视觉技术领域,方法包括获取可见光图像,将可见光图像作为目标检测网络输入,目标检测网络包括显著图分支网络、深度图分支网络、特征增强网络和多模态融合网络;利用显著图分支网络和深度分支网络分别提取可见光图像的高层特征和深度特征;利用特征增强网络对高层特征和深度特征进行增强,得到高层增强特征和深度增强特征;利用多模态融合网络对高层增强特征和深度增强特征进行自适应模态互补融合,生成显著图。本发明以单一可见光图像数据作为输入,使用一个轻量级网络生成深度信息,消除测试阶段对输入深度图的依赖,避免附加深度分支引入的大量计算开销。
-
公开(公告)号:CN114359626A
公开(公告)日:2022-04-15
申请号:CN202111533990.1
申请日:2021-12-15
Applicant: 安徽大学
IPC: G06V10/764 , G06V10/774 , G06V10/82 , G06K9/62 , G06N3/04 , G06N3/08
Abstract: 本发明公开一种基于条件生成对抗网络的可见光‑热红外显著目标检测方法,本发明基于条件生成对抗网络模型设计两个生成器,基于对抗学习分别提升查全率和查准率并使之达到平衡,从而得到更精细化的显著目标预测结果;通过全局上下文信息模块整合高层语义特征,整合后的特征作为解码器每层的引导特征包含有更丰富的全局上下文信息;本发明的协同注意力模型融合可见光模态和热红外模态特征的同时,进一步突出前景目标区域,抑制冗余的背景噪声影响,本发明的显著图比其他先进的方法具有更高的置信度。
-
公开(公告)号:CN113658227A
公开(公告)日:2021-11-16
申请号:CN202110987298.X
申请日:2021-08-26
Applicant: 安徽大学
Abstract: 一种基于协同低秩图模型的RGBT目标跟踪方法及系统,属于计算机视觉技术领域,解决现有技术的基于图模型的目标跟踪算法中相似性求解存在的可靠性低以及跟踪结果噪声高的问题;本发明的技术方案基于协同异质图模型的RGBT目标跟踪算法学习可靠的目标特征表示,改进基于图学习的方法中求解相似性矩阵的计算方式,学习到更可靠的相似性值,并且采用特征分解模型对原始输入特征进行分解,抑制噪声对跟踪结果的影响,同时对不同模态之间的异质性和协同性进行建模,有效利用不同模态的特征。
-
公开(公告)号:CN108846345B
公开(公告)日:2021-09-17
申请号:CN201810575278.X
申请日:2018-06-06
Applicant: 安徽大学
Abstract: 本发明公开了一种监控场景中的运动目标尺度估计方法,获取某特定监控场景的少量视频;检测该视频场景中的所有目标,以行人目标为例,获得目标的包围盒;对包围盒数据进行线性拟合,获得场景中目标平均尺度的分布;利用场景中的几何特性分析目标在图像平面上移动时高度的变化规律;利用得到的平均尺度分布和高度的变化规律,得到该特定场景中目标从位置A移动到位置B的高度变化规律;获取某特定目标在该场景图像中的一个位置和对应位置的尺度;利用尺度预测模型及目标的位置和尺度,求得该目标在场景中的尺度分布。利用监控场景的几何特性对场景中目标的尺度进行分析,不依赖于目标的外观,在含有复杂挑战的监控场景下实现鲁棒的尺度自适应跟踪。
-
公开(公告)号:CN112949451A
公开(公告)日:2021-06-11
申请号:CN202110214908.2
申请日:2021-02-24
Applicant: 安徽大学
Abstract: 本发明提供一种通过模态感知特征学习的跨模态目标跟踪方法及系统;在VGG网络原有基础上增加了一个模态感知模块,以自适应地合并来自两个分支的有效特性;开发了一个两阶段的学习算法,以训练该网络的效率和有效性。在培训阶段,任意模态的训练样本的分类损失将被反向传播到两个模态分支。模态信息在训练阶段是可用的,在测试阶段是不可用的;使用一个两阶段的学习算法来有效地训练所提出的网络,重新训练最后的全连接层,模态感知融合模块来自适应的合并来自两个分支的有效特性,将任意模态作为输入以解决RGB和近红外模态之间的外观差距。
-
公开(公告)号:CN109034001A
公开(公告)日:2018-12-18
申请号:CN201810725499.0
申请日:2018-07-04
Applicant: 安徽大学
IPC: G06K9/00
CPC classification number: G06K9/00765
Abstract: 本发明公开了一种基于时空线索的跨模态视频显著性检测方法,获取一对匹配的多模态视频序列帧对,使用SLIC算法对其超像素分割;计算超像素分割图的每个像素点的显著性,选择相似度大的节点作为前景点;通过结合上一阶段的显著值、可见光和热红外两个模态的权重构造显著图;对比相邻前后两帧的显著值计算其空间位置最大重叠比继而找到相邻帧之间的固有关系,得到基于时空的多模态视频显著性结果;利用拉格朗日数乘法对模型进行求解并得出结果。本发明从信息融合的角度出发,通过融合多个互补的视觉模态数据克服低光照、雾霾和杂乱背景等因素的影响,引入了每种模式的权重来表示可靠性,以实现不同源数据的自适应和协同融合。
-
公开(公告)号:CN119477700A
公开(公告)日:2025-02-18
申请号:CN202411492639.6
申请日:2024-10-24
Applicant: 安徽大学
IPC: G06T3/4061 , G06T3/4046 , G06V10/44 , G06V10/77 , G06V10/80 , G06V10/82 , G06N3/0455 , G06N3/0442 , G06N3/0464
Abstract: 本发明提供一种引导解耦的无人机热红外图像超分辨率模型、方法及训练方法,属于计算机视觉和图像处理技术领域。模型集成了特定属性引导模块,对于低光照,有雾,和正常光照条件下的图像设计不同分支进行特征处理。确保在不同场景下对可见光图像实现有效特征提取。感知属性融合模块实现对三个分支的特征进行自适应聚合。多场景可见光引导模块使用多种注意力机制将实现可见光图像和热红外图像的特征交互,实现可见光图像对热红外图像的高效引导。与现有最先进的单图像超分辨率方法和引导型超分辨率方法相比,本发明恢复了更丰富的纹理和结构细节,并在评估指标和视觉感知方面有更好的表现。
-
公开(公告)号:CN119445519A
公开(公告)日:2025-02-14
申请号:CN202411580951.0
申请日:2024-11-07
Applicant: 安徽大学
IPC: G06V20/56 , G06V20/40 , G06V10/80 , G06V10/82 , G06N3/045 , G06N3/048 , G06V10/764 , G06V10/766 , G06N3/0464
Abstract: 本发明公开了一种基于实例特征引导的视频车道线检测方法及系统,方法包括:构建视频车道线检测网络,包括骨干网络、颈部网络、线锚特征交互融合模块;骨干网络和颈部网络组成共享权重的两个多层次特征提取分支网络;获取当前帧图像和参考帧图像,并将两幅图分别送入两个多层次特征提取分支网络中,获取两幅图像的多层级图像特征;初始化分布在图像上的线锚,并将其与两幅图像的多层级图像特征一并送入线锚特征交互融合模块中,从高层级到低层级逐渐细化线锚的位置,以获取车道检测结果;对构建的视频车道线检测网络进行训练优化,获取最佳视频车道线检测网络进行车道检测。在面临困难场景的情况下,本发明能够充分利用视频中所蕴含的时序信息,结合参考帧中的车道线实例特征,作为补充和提示,能够有效地推理出完整的车道线实例,辅助当前帧的检测,提高模型的准确性和鲁棒性。
-
公开(公告)号:CN114445480B
公开(公告)日:2025-02-14
申请号:CN202210095475.8
申请日:2022-01-26
Applicant: 安徽大学
IPC: G06T7/593 , G06V10/75 , G06V10/46 , G06V10/82 , G06N3/0464 , G06N3/047 , G06N3/0455 , G06N3/08
Abstract: 本发明公开一种基于Transformer的热红外图像立体匹配方法及装置,属于计算机视觉技术领域,方法包括获取热红外图像校正后的左视图和右视图;采用UNet特征提取网络对左右视图进行特征提取,得到多尺度特征图;基于Transformer特征转换模块对多尺度特征图进行处理,得到左右视图的转换特征图;基于左右视图的转换特征图,生成视差图。本发明在基于深度学习的立体匹配算法基础上,针对热红外图像纹理稀疏甚至大面积无纹理的特点,采用Transformer特征转换模块进行特征转换,解决热红外图像立体匹配的难点,从而达到良好的热红外立体匹配效果。
-
-
-
-
-
-
-
-
-