-
公开(公告)号:CN117495657A
公开(公告)日:2024-02-02
申请号:CN202311379370.6
申请日:2023-10-24
Applicant: 安徽理工大学
IPC: G06T3/04 , G06N3/0455 , G06N3/0464
Abstract: 本发明属于计算机视觉领域,具体为种基于自注意力机制与二阶统计融合的域匹配风格迁移方法,包括以下步骤:1)利用VGG19网络作为编码器Encoder,Encoder分别捕获内容图像以及风格图像的多层次特征。2)使用self‑attention机制对编码后的风格图像以及内容图像的数据进行处理,使其关注到局部重要区域以及更大的内容范围,得到注意力矩阵。3)将编码后的风格图像与注意力矩阵进行结合计算加权平均,得到注意力特征图,然后计算其协方差。4)协方差含有更加丰富的特征,相对于一阶统计而言,具有更大的优势,利用计算的协方差进行风格迁移。5)使用和Encoder对称的解码器Decoder对迁移后的数据进行处理,构造目标图像。6)结合self‑attention机制,利用快速排序的方法进行精确的经验累积分布图匹配,构造出一个新的损失函数。同时配合使用普通的风格损失。本发明采用了自注意力机制与二阶统计融合的特征分布匹配算法,解决了风格迁移后出现残影、风格迁移效果差等问题,提升了生成图像与风格图像风格的相似度。
-
公开(公告)号:CN116486112A
公开(公告)日:2023-07-25
申请号:CN202310410912.5
申请日:2023-04-18
Applicant: 安徽理工大学
IPC: G06V10/70 , G06V10/82 , G06V10/80 , G06N3/08 , G06N3/0455
Abstract: 本发明属于计算机视觉领域,提供了一种基于轻量化跨模态融合网络的RGB‑D显著性目标检测方法,包括以下步骤:1)获取训练和测试该任务的RGB‑D数据集,并定义本发明的算法目标2)构建用于提取RGB图像特征的编码器和深度图像特征的编码器;3)建立跨模态特点融合网络,通过渐进式引导的注意力机制增强RGB图像和深度图像特征特征的表达;4)基于上述的跨模态特征融合成的多模态特征,构建一个轻量化的全局上下文整合模块,以提取融合模态多尺度上下文特征;5)构建了一个简单高效的多路径聚合模块来整合融合特征,原始的RGB和深度图特征,并通过激活函数得到最终的预测到的显著图。
-
公开(公告)号:CN116310396A
公开(公告)日:2023-06-23
申请号:CN202310201765.0
申请日:2023-02-28
Applicant: 安徽理工大学
IPC: G06V10/46 , G06V10/52 , G06V10/80 , G06V10/82 , G06N3/0455 , G06N3/0464 , G06N3/048 , G06N3/084
Abstract: 本发明属于计算机视觉领域,提供了一种基于深度质量加权的RGB‑D显著性目标检测方法,包括以下步骤:1)获取训练和测试该任务的RGB‑D数据集,并定义本发明的算法目标;2)构建用于提取RGB图像特征RGB编码器和深度(Depth)图像特征Depth编码器;3)构建跨模态加权融合模块,通过加权式引导的深度质量评估机制指导提取的RGB图像特征和Depth图像特征进行加权融合;4)构建用于多尺度特征提取融合的双向尺度相关卷积机制,以增强多模态特征的高级语义信息;5)建立解码器以生成显著图Pest;6)预测的显著图Pest与人工标注的显著目标分割图PGT计算损失;7)对测试数据集进行测试,生成显著图Pest,并使用评价指标进行性能评估。本发明可有效整合来自不同模态图像的互补信息,提升复杂场景下显著性目标预测的准确度。
-
公开(公告)号:CN114758279A
公开(公告)日:2022-07-15
申请号:CN202210443675.8
申请日:2022-04-24
Applicant: 安徽理工大学
IPC: G06V20/40
Abstract: 本发明属于计算机视觉领域,提供了一种基于时间域信息传递的视频目标检测方法,包括以下步骤:1)获取并输入视频数据;2)对视频帧进行分成每m一组;3)通过信息传递模块,首先对每一组连续帧进行合并,获取特征并通过门控循环单元实现上下文信息的传递;4)利用YOLOV5对数据进行后续检测,使用Focal Loss交叉熵损失与DIoU Loss函数训练此模型。与现有的技术相比,本发明基于YOLOV5模型对其进行了改进使其更注重连续帧中相邻帧的信息,可以有效提升目标检测的质量。
-
公开(公告)号:CN114693953A
公开(公告)日:2022-07-01
申请号:CN202210308537.9
申请日:2022-03-24
Applicant: 安徽理工大学
Abstract: 本发明提供一种基于跨模态双向互补网络的RGB‑D显著性目标检测方法,属于图像显著性检测技术,所述方法利用RGB和depth图像的多模态数据,提取跨模态的特征用于推理输入场景的显著性目标或者区域。本发明的贡献主要在于通过从RGB和depth的鲁棒性和抗干扰性的角度出发,设计一种跨模态特征双向互补充机制。该机制利用depth特征优化RGB特征,并通过循环的方式将优化后的RGB特征用于增强depth特征。通过提出的跨模态特征双向互补充机制可以有效地处理RGB图像所遭遇的挑战性场景(低对比度,复杂背景,多目标等),并能够解决低质量深度图带来的负面影响。最后,利用深层特征指导策略集成多尺度特征,生成显著性结果。
-
公开(公告)号:CN113139544A
公开(公告)日:2021-07-20
申请号:CN202110494656.3
申请日:2021-05-06
Applicant: 安徽理工大学
Abstract: 本发明属于计算机视觉领域,提供了一种基于多尺度特征动态融合的显著性目标检测方法,包括以下步骤:1)利用VGG‑16主干框架对RGB图像进行多尺度特征提取并进行编码;2)利用多尺度特征动态融合模块优化多尺度特征,生成初始显著性图;3)利用边缘预测模块从主干网络中低层次的特征生成高质量边缘信息图;4)初始显著性图与边缘信息图进行高效融合增强显著性目标的边缘信息,生成高性能最终显著性图。与现有的技术相比,本发明基于多尺度动态特征融合的显著性检测算法融合了多尺度特征和边缘预测网络,可以有效提升显著性图的质量。
-
公开(公告)号:CN114612684B
公开(公告)日:2025-01-03
申请号:CN202210279696.0
申请日:2022-03-21
Applicant: 安徽理工大学
IPC: G06V10/44 , G06V10/46 , G06V10/80 , G06V10/764 , G06V10/82 , G06N3/0464 , G06N3/09
Abstract: 本发明属于计算机视觉领域,提供了一种基于高效多尺度上下文探索网络的显著性目标检测算法,包括以下步骤:1)利用预训练好的ResNet‑50网络从RGB图像中提取初始多层次特征;2)基于渐进式多尺度上下文提取模块,高效捕获多尺度多感受野上下文信息来增加初始多层次特征中的显著性信息;3)将优化的多层次特征嵌入层次化特征混合交互模块,通过高效交互不同层次特征生成高质量特征表示;4)将高质量特征表示进行一系列的降维激活生成初始显著性图。通过大量的实验数据对比,充分证明了此发明的高效性。
-
公开(公告)号:CN118711184A
公开(公告)日:2024-09-27
申请号:CN202410784300.7
申请日:2024-06-17
Applicant: 安徽理工大学
IPC: G06V20/70 , G06V10/26 , G06V10/44 , G06V10/80 , G06V10/82 , G06V10/764 , G06N3/0455
Abstract: 本发明属于计算机视觉领域,提供了一种基于特征校准的边缘阈值的RGB‑D室内场景语义分割方法,其特征在于,该方法包括一下步骤:1)获取训练和测试该任务的RGB‑D数据集,并定义本发明的算法目标;2)利用深度学习技术,构建基于特征校准的边缘阈值并通过双编码器‑解码器结构构建RGB‑D语义分割网络模型;3)构建一个跨模态特征校准并实现边缘信息引导网络用于生成多模态特征;4)跨模态连接融合,再提取特征,增强多模态特征的高级语义信息;5)使用DeeplabV3+解码器,将编码器输出的特征图通过一系列的全连接层进行上采样和特征重建,并使用非线性激活函数(ReLU)增强模型的表达能力,最终得到与输入图像大小相同的分割结果Pest;6)预测的分割结果图Pest与人工标注的语义分割图PGT计算损失;7)对测试数据集进行测试,生成分割结果图Pest,并使用评价指标进行性能评估。
-
公开(公告)号:CN114693953B
公开(公告)日:2024-08-09
申请号:CN202210308537.9
申请日:2022-03-24
Applicant: 安徽理工大学
IPC: G06V10/46 , G06N3/0464 , G06N3/0455 , G06N3/084 , G06V10/80 , G06V10/82 , G06V10/774
Abstract: 本发明提供一种基于跨模态双向互补网络的RGB‑D显著性目标检测方法,属于图像显著性检测技术,所述方法利用RGB和depth图像的多模态数据,提取跨模态的特征用于推理输入场景的显著性目标或者区域。本发明的贡献主要在于通过从RGB和depth的鲁棒性和抗干扰性的角度出发,设计一种跨模态特征双向互补充机制。该机制利用depth特征优化RGB特征,并通过循环的方式将优化后的RGB特征用于增强depth特征。通过提出的跨模态特征双向互补充机制可以有效地处理RGB图像所遭遇的挑战性场景(低对比度,复杂背景,多目标等),并能够解决低质量深度图带来的负面影响。最后,利用深层特征指导策略集成多尺度特征,生成显著性结果。
-
公开(公告)号:CN114332491B
公开(公告)日:2024-08-09
申请号:CN202111463853.5
申请日:2021-12-03
Applicant: 安徽理工大学
Abstract: 本发明属于显著性目标检测领域,提供了一种基于特征重构的显著性目标检测方法,包括以下步骤:1)首先输入原始RGB图像利用预训练好的ResNet‑50网络进行多层次特征提取;2)然后,使用残差特征重构模块,提取局部和全局上下文信息,聚合上下文信息增强特征中目标的显著性,优化多层次特征;3)随后,引入残差短连接聚合优化后的多层次特征交互多种信息生成具有丰富显著性目标信息的特征表示;4)最后,将特征表示进行降维并激活,使用多次监督策略进行模型训练。通过大量的与现存显著性目标检测方法相比较,本发明基于特征重构的显著性目标检测方法,通过利用精心设计的卷积、空洞卷积以及特征重构操作可以准确预测和分割的显著性目标。
-
-
-
-
-
-
-
-
-