-
公开(公告)号:CN113837296A
公开(公告)日:2021-12-24
申请号:CN202111144930.0
申请日:2021-09-28
Applicant: 安徽大学
Abstract: 一种基于两阶段融合结构搜索的RGBT视觉跟踪方法及系统,属于计算机视觉技术领域,解决如何为基于鲁棒实例表示的RGBT跟踪找到最佳的融合网络结构,从而进一步提高跟踪性能的问题,本发明的技术方案在离线搜索阶段,为了提取对光照变化、运动模糊和尺度变化等各种挑战具有鲁棒性的共享特征表示,引入了多域学习框架来离线搜索通用融合空间中的融合网络结构。在线跟踪阶段,从实例感知的融合空间中,在线搜索每个视频序列的融合结构以应对特定于实例的挑战;这种两阶段搜索算法可以动态更新视频融合策略,从而为基于鲁棒实例表示的RGBT跟踪找到合适的融合网络结构,进一步提高跟踪性能。
-
公开(公告)号:CN113705463A
公开(公告)日:2021-11-26
申请号:CN202111003067.7
申请日:2021-08-30
Applicant: 安徽大学
Abstract: 一种基于多尺度门控密集连接的工厂足迹提取方法及系统,属于图像处理技术领域,解决如何通过引入引导模块以及密集连接来处理工厂的多尺度的问题,通过设计引导模块来缓解编码特征和解码特征之间的差异性影响,结合编码器和解码器特征的优势去引导编码特征的信息选择,弥补不同层级特征之间的差异性,将密集连接作用在编码器和解码器上,结合了不同尺度的低层细节信息和高层语义信息,进而获得多尺度的特征表示能力,更好的利用了低层特征的细节信息和高层特征的语义信息,同时使用自适应融合获取最终的解码特征,提升了遥感工厂足迹提取的精度。
-
公开(公告)号:CN108776975B
公开(公告)日:2021-11-05
申请号:CN201810531415.X
申请日:2018-05-29
Applicant: 安徽大学
Abstract: 本发明公开了一种基于半监督特征和滤波器联合学习的视觉跟踪方法,根据t‑1帧的目标位置提取训练样本并提取方向梯度直方图特征、灰度特征和颜色特征,然后以像素点的特征为节点,两个像素点属于同一类的概率值为边权去构建8邻域图,根据像素点所处的位置计算初始权重向量,最终构建模型联合求解滤波器和权重向量,在第t帧图像上,根据t‑1帧目标位置设置搜索区域并提取特征,使用权重向量对特征进行加权。最终和滤波器相卷积得到响应图并确定目标的中心点。本发明使用半监督的方式在一个统一的优化框架内联合学习特征可靠性和相关滤波器。来抑制在跟踪过程中背景区域对跟踪的干扰,使得跟踪器对跟踪目标有着更加鲁棒的效果。
-
公开(公告)号:CN108764177B
公开(公告)日:2021-08-27
申请号:CN201810550978.3
申请日:2018-05-31
Applicant: 安徽大学
Abstract: 本发明公开了一种基于低秩分解和表示联合学习的运动目标检测方法,获得待检测视频序列的每一帧图像;对每帧图像进行超像素分割,并提取特征向量合并组成矩阵;基于视频序列中的背景图像彼此线性相关,先验假设运动目标是相对较小的连续碎片,且可用表示模型中的表示系数描述一帧之中超像素之间的全局关系,得到算法模型;对模型进行求解,得到每一帧中每个超像素的标签,可得到每帧图像的检测结果。本发明相比现有的以像素为单位进行运动目标检测效率更高,内存开销更少;利用表示模型得到的超像素之间的全局关系,相比现有的只使用局部的结构连续约束进行检测的准确性更高。
-
公开(公告)号:CN113298094A
公开(公告)日:2021-08-24
申请号:CN202110645432.8
申请日:2021-06-10
Applicant: 安徽大学
Abstract: 本发明公开一种基于模态关联与双感知解码器的RGB‑T的显著性目标检测方法,本发明通过模态对齐模块(MAM)来建模两种模态的强关联性,其空间仿射变换,特征仿射变换和一个动态卷积层来实现特征对齐和建立更灵活的模态关联性;本发明的双重解码器结合自底向上和自顶向下的方式,学习由精到粗和由粗到精的两种感知过程,从而获得更强大的信息选择与融合的能力;进一步通过将MAM中的前两个组件和全局上下文增强部分添加到ConvLSTM中,本发明的显著图比其他先进的方法具有更高的置信度。
-
公开(公告)号:CN110363770A
公开(公告)日:2019-10-22
申请号:CN201910631325.2
申请日:2019-07-12
Applicant: 安徽大学
Abstract: 本发明公开了一种边缘引导式红外语义分割模型的训练方法及装置,方法包括:1)、预先建立包括依次数据连接的边缘嵌入模块层、残差网络模块层、空洞卷积模块以及第一卷积层的初始语义分割模型;2)、使用预先标记了目标的样本集训练初始语义分割模型;3)、利用交叉熵损失函数计算训练后语义分割模型输出的预测结果与对应样本的真值之间的损失值;4)、在训练次数大于或等于设定值的情况下,将训练后语义分割模型作为目标语义分割模型;5)、训练次数小于设定值的情况下,根据上述所得损失值更新训练后的语义分割模型的模型参数,返回执行步骤2),直至训练次数大于或等于设定值。应用本发明实施例,可以提高语义分割的准确性。
-
公开(公告)号:CN108898136A
公开(公告)日:2018-11-27
申请号:CN201810725464.7
申请日:2018-07-04
Applicant: 安徽大学
Abstract: 本发明公开了一种跨模态图像显著性检测方法,输入配对的多模态图像,用基于超像素分割算法对不同模态进行分割,获取均匀、大小近似的超像素区域;设计基于图流形排序算法的多模态图像显著性检测模型,引入跨模态软一致性约束和流形排序拟合项稀疏性约束;以图像四边的超像素作为种子节点,计算其他节点与种子节点的相似性,得到初步的显著图;参考上一阶段得到的前景点作为种子节点,计算其他节点到该节点的相似性,得到最终的显著图。本发明提出了一种基于图流形排序算法互补地融合多模态图像的方法,并引入l1范数实现跨模态软一致性约束和流形排序函数拟合项稀疏性约束,即在协同多个模态的基础上,允许部分不一致,增加拟合项的鲁棒性。
-
公开(公告)号:CN108764177A
公开(公告)日:2018-11-06
申请号:CN201810550978.3
申请日:2018-05-31
Applicant: 安徽大学
CPC classification number: G06K9/00724 , G06K9/40 , G06K9/44 , G06K9/46 , G06K2009/4695
Abstract: 本发明公开了一种基于低秩分解和表示联合学习的运动目标检测方法,获得待检测视频序列的每一帧图像;对每帧图像进行超像素分割,并提取特征向量合并组成矩阵;基于视频序列中的背景图像彼此线性相关,先验假设运动目标是相对较小的连续碎片,且可用表示模型中的表示系数描述一帧之中超像素之间的全局关系,得到算法模型;对模型进行求解,得到每一帧中每个超像素的标签,可得到每帧图像的检测结果。本发明相比现有的以像素为单位进行运动目标检测效率更高,内存开销更少;利用表示模型得到的超像素之间的全局关系,相比现有的只使用局部的结构连续约束进行检测的准确性更高。
-
公开(公告)号:CN114445462B
公开(公告)日:2025-04-29
申请号:CN202210095464.X
申请日:2022-01-26
Applicant: 安徽大学
IPC: G06T7/246 , G06T5/50 , G06T5/60 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种基于自适应卷积的跨模态视觉跟踪方法及装置,属于计算机视觉技术领域,包括:输入一对配准的多模态图像,通过自适应卷积模块,在每一层卷积之后生成对应于特征图大小的权重张量,逐像素的对不同模态间的输入进行自适应融合,通过将融合结果与单个输入模态特征再次进行两个模态特征的自适应融合,实现跨模态信息交互和单个模态信息增强;根据每个视频的第一帧收集样本微调全连接层以应对特定于实例的挑战;最后送入全连接层的最末层进行二分类操作,来得到最终的预测结果。通过将融合结果与单个模态的特征执行自适应融合操作,实现模态间的特征互补,进提高跟踪模型性能。
-
公开(公告)号:CN114445371B
公开(公告)日:2025-04-22
申请号:CN202210099234.0
申请日:2022-01-27
Applicant: 安徽大学
IPC: G06T7/00 , G06N3/0464 , G06N3/098 , G06N3/084 , G06N3/096
Abstract: 本发明公开了一种基于椭圆交并比的遥感图像目标检测方法及装置,属于计算机视觉技术领域,方法包括:获取原始图像,将原始图像中目标的标注信息转换为椭圆标注后输入至目标检测器,目标检测器包括依次连接的骨干网络、RRPN网络和RoIHead网络,RRPN网络和所述RoIHead网络的回归损失函数均采用椭圆交并比损失函数;利用骨干网络提取输入图像的多尺度特征图;将多尺度特征图作为所述RRPN网络的输入,得到目标的旋转候选框;将多尺度特征图和旋转候选框作为RoIHead网络的输入,得到原始图像的检测结果。本发明将原始图像中目标的标注信息转换为椭圆标注,并提出椭圆交并比的计算方式计算预测框与目标框之间的重合度,提高了遥感图像目标检测的效果。
-
-
-
-
-
-
-
-
-