-
公开(公告)号:CN117173773A
公开(公告)日:2023-12-05
申请号:CN202311328554.X
申请日:2023-10-14
Applicant: 安徽理工大学
IPC: G06V40/16 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/094
Abstract: 本发明属于计算机视觉领域,提供了混合CNN与Transformer的域泛化注视估计算法,包括以下步骤:首先,采用ResNest‑50与ViT双流特征提取网络进行特征提取并使用ResNest‑50分支的多层融合特征作为ViT网络的输入以代替使用全脸图像作为输入;随后,为缓解ResNest分支与ViT分支的输出特征的维度和语义差异,特征融合增强模块(FFEM)被设计用于融合双分支的输出特征;之后,一种基于对抗策略的域泛化方法被提出用来提升模型的跨域性能。一个额外的图像重建任务被设计用来与注视估计任务进行对抗性学习,并使用互信息神经估计器(MINE)来计算图像重建任务和注视估计任务的特征空间的互信息以解耦注视无关特征(个体外观等)与注视相关特征;最后利用混合损失函数进行深度监督训练。
-
公开(公告)号:CN116798070A
公开(公告)日:2023-09-22
申请号:CN202310537794.4
申请日:2023-05-15
Applicant: 安徽理工大学
IPC: G06V40/10 , G06V10/774 , G06V10/74 , G06V10/44
Abstract: 本发明涉及一种基于光谱感知和注意力机制的跨模态行人重识别方法,目标是解决行人重识别领域中RGB图像和红外图像之间的跨模态差异问题。本发明通过额外增加一组由可见光、红外和齐次增强得到的灰度图像组成的输入,用两组输入图像对网络模型进行联合训练,进一步加强了对有限图像中特征的利用,提高了模型匹配的精度;采用单流网络与双流网络相结合的方式,用以提取和合并不同模态图像的特征;然后从多模态分类和多视图检索的角度解决三模态特征学习。最后利用注意力机制,获取行人图像更丰富的局部特征来实现模态信息的交互融合,进而提升跨模态行人重识别效果。
-
公开(公告)号:CN116758130A
公开(公告)日:2023-09-15
申请号:CN202310755900.6
申请日:2023-06-21
Applicant: 安徽理工大学
IPC: G06T7/55 , G06V10/77 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/048 , G06N3/0455 , G06N3/08
Abstract: 本发明属于计算机视觉领域中的一个基础研究课题,提出了一种基于多路径特征提取和多尺度特征融合的单目深度预测方法,并构建了一种全新的编码器‑解码器框架。在编码器部分,本发明结合卷积神经网络与Transformer各自的优点,采用多路径结构在局部和全局区域同时进行推理,实现了精细和粗糙的多路径特征提取,获得了多样化的多尺度特征表示。特别地,空间金字塔池化模块(PSP)利用多尺度自适应池化操作来提取不同尺度下的语义信息,从而初始化解码器特征。在解码器部分,本发明引入了精心设计的编码器和解码器特征交互模块(EDFI),通过跳跃连接和双路径交叉自我注意机制,充分自适应地增强和融合全局上下文语义信息和精细的局部边缘信息。本发明充分利用了卷积神经网络的强大空间归纳和由Vision Transformer模型实现的全局信息推理,同时,结合灵活的轻量级解码器,本发明能够以更细粒度和更高的准确度完成深度预测。
-
公开(公告)号:CN116740479A
公开(公告)日:2023-09-12
申请号:CN202310743306.5
申请日:2023-06-21
Applicant: 安徽理工大学
Abstract: 本发明公开了一种基于立体注意力的多尺度上下文与多层级特征交互的伪装目标检测方法,包括主干网络、多尺度上下文探索模块(MCE)、多层级特征交互模块(MFI)以及立体注意力增强模块(SAE)。主干网络提取输入图像的多级特征fi(i=1,2,3,4);多尺度上下文探索模块(MCE)通过多感受野卷积操作渐进式捕捉强相关的多尺度特征;多层级特征交互模块(MFI)通过混合交互策略自适应聚合多层级特征,以生成强大的特征表示;立体注意力增强模块(SAE)对聚合后的特征自适应分配权重,以过滤不重要信息。值得一提的是,本发明不仅提升了伪装目标检测方法性能,还在显著性目标检测领域取得了较大进展。
-
公开(公告)号:CN116563738A
公开(公告)日:2023-08-08
申请号:CN202310670520.2
申请日:2023-06-08
Applicant: 安徽理工大学
IPC: G06V20/17 , G06V10/774 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/084 , G06N3/0895
Abstract: 本发明涉及计算机视觉领域,具体设计了一种基于不确定性的多阶段引导的小目标半监督学习检测方法,其方法包括:构建训练和测试该任务的数据集;将数据集的图像进行预处理操作,同时将训练集划分,一部分有标注信息,另一部分则没有标注;构建半监督学习下的小目标检测模型;将有标记的图片送入初始检测模型中,得到可以为无标注的图片产生伪标签的教师检测模型;根据生成伪标签的可靠性,将带有伪标签信息的图片逐步送入学生网络中,和预先存在标注的图片一起训练学生网络,最终输出检测结果。本发明引入多尺度感知融合模块和盒子抖动的方法,同时采用新的衡量标准来帮助学生网络选择更为丰富可靠的伪标签,从而进一步提升检测性能。
-
公开(公告)号:CN116452805A
公开(公告)日:2023-07-18
申请号:CN202310401129.2
申请日:2023-04-15
Applicant: 安徽理工大学
IPC: G06V10/26 , G06V10/774 , G06V10/82 , G06V10/80 , G06N3/084
Abstract: 发明名称:一种基于Transformer的跨模态融合网络的RGB‑D语义分割方法摘要:本发明提供了一种基于Transformer的跨模态融合的RGB‑D语义分割方法,所述方法利用RGB图像和Depth图像的多模态数据,提取跨模态特征用于计算机视觉中的语义分割任务。本发明的贡献主要在于通过考虑Depth特征出发,意识到深度传感器获得的深度学习存在不可靠信息(如,一些深度传感器读取到的深色的物体或者反光的表面的读数往往不准确或者存在空洞),提出利用双边滤波来加强Depth特征的作用,并通过一个跨模态残差融合模块有效的融合RGB特征和Depth特征。通过提出的方法可以有效地处理RGB图像语义分割所遭遇的挑战(很难区分具有相似颜色和纹理的实例),并且可以有效的利用Depth图像。
-
公开(公告)号:CN115951034A
公开(公告)日:2023-04-11
申请号:CN202211639746.8
申请日:2022-12-20
Applicant: 合肥综合性国家科学中心能源研究院(安徽省能源实验室) , 安徽理工大学
IPC: G01N33/24
Abstract: 本发明涉及煤矿开采模拟设备技术领域,具体公开一种煤炭开采输运工作的模拟分析实验设备,所述实验设备包括试验台,所述试验台上水平安装有托板,实验设备还包括:试样块,所述试样块放置在托板上;平面驱动装置,用于模拟煤炭输运工作,所述平面驱动装置设置在试验台上,平面驱动装置上设置有伺服电机,伺服电机输出端设置有螺杆;所述试样块上设置有螺纹孔,螺纹孔与螺杆连接,用于模拟煤炭开采工作。本发明实验设备,采用平面驱动装置,进行伺服电机的平面移动,使伺服电机输出端的螺杆对准试样块上的螺纹孔,通过螺杆与螺纹孔连接,进行试样块连接固定,取出试样块,进行模拟开采输送实验,托板的位置可切换,进行重复模拟实验。
-
公开(公告)号:CN114612684A
公开(公告)日:2022-06-10
申请号:CN202210279696.0
申请日:2022-03-21
Applicant: 安徽理工大学
Abstract: 本发明属于计算机视觉领域,提供了一种基于高效多尺度上下文探索网络的显著性目标检测算法,包括以下步骤:1)利用预训练好的ResNet‑50网络从RGB图像中提取初始多层次特征;2)基于渐进式多尺度上下文提取模块,高效捕获多尺度多感受野上下文信息来增加初始多层次特征中的显著性信息;3)将优化的多层次特征嵌入层次化特征混合交互模块,通过高效交互不同层次特征生成高质量特征表示;4)将高质量特征表示进行一系列的降维激活生成初始显著性图。通过大量的实验数据对比,充分证明了此发明的高效性。
-
公开(公告)号:CN114612683A
公开(公告)日:2022-06-10
申请号:CN202210279654.7
申请日:2022-03-21
Applicant: 安徽理工大学
Abstract: 本发明属于计算机视觉领域,提供了基于密集多尺度推理网络的显著性目标检测算法,包括以下步骤:首先,将预训练好的ResNet‑50网络作为主干网络用于提取初始多层次特征;随后,将特征输入双流多感受野模块通过一系列卷积操作和密集指导连接来增加其内部的显著性信息;之后,利用残差多方式交互策略充分交互优化后的多层次特征生成高质量特征表示;最后将生成的特征表示进行降维激活,生成初始显著性图,并利用真值标签进行深度监督训练。
-
公开(公告)号:CN114332559A
公开(公告)日:2022-04-12
申请号:CN202111565872.9
申请日:2021-12-17
Applicant: 安徽理工大学
Abstract: 本发明属于计算机视觉领域,提供了一种自适应跨模态融合机制和深度注意力网络的RGB‑D显著性目标检测方法,包括以下步骤:1)准备RGB‑D显著性目标检测数据集,该数据集包括三个部分,分别是RGB图像I、对应的深度(Depth)图D像以及显著性分割图S,进一步可划分为训练集和测试集;2)设计深度图质量感知模块,并计算输入该模块的深度图的质量值,高于该值的深度图作为训练样本,否则过滤掉该深度图;3)分别建立用于提取RGB特征和Depth特征的神经网络模型,并使用VGG16网络用于提取特征;4)建立计算深度显著性先验和背景先验的计算方式;5)建立RGB特征和Depth特征的高效互补的自适应跨模态特征融合方案,并整合多尺度融合特征,得到预测结果。
-
-
-
-
-
-
-
-
-