-
公开(公告)号:CN117011618A
公开(公告)日:2023-11-07
申请号:CN202310410272.8
申请日:2023-04-18
Applicant: 安徽理工大学
IPC: G06V10/77 , G06V10/80 , G06V10/82 , G06V10/774
Abstract: 本发明属于计算机视觉领域,提供了基于多尺度特征双流聚合的显著性目标检测方法。包括一下步骤:首先,将预训练好的ResNet‑50网络作为主干网络用于提取初始多层次特征;随后,将特征输入残差上下文提取模块通过一系列卷积操作增加显著性信息;之后通过密集连接采用两种交互方式双流聚合多尺度特征,实现特征信息的交互。最后将生成的特征表示进行降维激活,生成初始显著性图,并利用真值标签进行深度监督训练。
-
公开(公告)号:CN116958736A
公开(公告)日:2023-10-27
申请号:CN202310708088.1
申请日:2023-06-14
Applicant: 安徽理工大学
IPC: G06V10/774 , G06V10/80 , G06V10/764 , G06N3/048 , G06N3/08
Abstract: 本发明属于计算机视觉领域,提供了一种基于跨模态边缘引导的RGB‑D显著性目标检测方法,包括以下步骤:1)获取训练和测试该任务的RGB‑D数据集;2)分别建立用于提取RGB图像特征和Depth图像特征的显著性目标检测模型网络;3)建立用于跨模态注意力融合的网络结构;4)建立用于边缘感知的网络结构;5)构建用于边缘指导融合解码器,从高到低解码多尺度融合特征并和边缘特征拼接融合,获取显著图。本发明可有效整合来自不同模态图像的互补信息,提升复杂场景下显著性目标预测的准确度。
-
公开(公告)号:CN116778180A
公开(公告)日:2023-09-19
申请号:CN202310518001.4
申请日:2023-05-09
Applicant: 安徽理工大学
IPC: G06V10/44 , G06V10/80 , G06F40/30 , G06F40/289 , G06V10/82 , G06N3/0464 , G06N3/08 , G06N3/048
Abstract: 本发明属于计算机视觉领域,公开了一种基于多级特征和上下文信息融合的RGB‑D显著性目标检测方法,包括以下步骤:(1)将VGG‑16作为主干框架对RGB图像和深度图像提取多尺度信息然后进行编码;(2)利用提出的细节增强融合模块和语义增强融合模块分别融合低层特征中的细节信息和高层特征中的语义信息;(3)用多尺度感受野增强模块来获得网络中丰富的上下文信息;(4)构建密集连接特征金字塔解码器,将这些特征输入到解码器中生成显著性结果;(5)采用二元交叉熵来训练本发明的模型,计算出在不同像素下的预测值和真实值之间的误差。
-
公开(公告)号:CN116703996A
公开(公告)日:2023-09-05
申请号:CN202310517996.2
申请日:2023-05-09
Applicant: 安徽理工大学
IPC: G06T7/50 , G06V20/58 , G06V10/774 , G06V10/56
Abstract: 本发明属于计算机视觉领域领域,提供了一种基于实例级自适应深度估计的单目三维目标检测算法,包括以下步骤:首先利用从ImageNet中训练好的DLA‑34主干网络,作为编码器从输入图像中编码初始多层次特征;然后,利用全局的特征表示,将预测最终深度值作为离散深度区间中心值和实例特征概率表示的线性组合,结合二维目标检测区域分布获得实例级的稀疏深度图,并得到隐含的深度空间线索特征信息;之后,利用空间增强注意力模块将深度线索特征信息引入三维目标检测分支,并通过金字塔池化操作学习不同尺度下的目标空间特征表示;最后,利用多个损失函数分层优化多个检测任务的监督学习,并利用混合损失函数训练此模型。
-
公开(公告)号:CN116612497A
公开(公告)日:2023-08-18
申请号:CN202310568762.0
申请日:2023-05-17
Applicant: 安徽理工大学
Abstract: 发明名称:一种基于服装风格特征融合的换衣行人重识别方法摘要:本发明提供一种基于服装风格特征融合的换衣行人重识别方法,属于计算机视觉技术领域。根据人体语义分割信息定位服装区域。通过服装流网络分支获得服装风格的特征表示,通过身份流网络分支获得身份特征和视觉变换特征,以服装风格特征和身份特征得分之和做为检索相似行人图像的标准。本发明通过服装流网络分支提取特征,尽可能地平衡服装风格信息和身体信息的权重,并获得更可靠的辨别性特征。通过身份流网络分支,提取衣服无关的视觉语义信息,为行人提取更稳健的特征表示。本发明具备科学性、系统性和鲁棒性的技术效果。
-
公开(公告)号:CN116563681A
公开(公告)日:2023-08-08
申请号:CN202310512890.3
申请日:2023-05-09
Applicant: 安徽理工大学
Abstract: 本发明属于计算机视觉领域,提供了结合全局和局部信息的双路特征提取网络框架,包括以下步骤:1)利用卷积神经网络(CNN)和Transformer提出了一种新的方法来并行处理凝视估计,由此产生的架构CTA‑Net,充分发挥CNN在建模空间相关性方面的归纳偏置以及变压器在建模全局关系方面的强大能力。2)提出了一种互补的眼睛图像聚合凝视估计注意力机制ACFusion,该机制生成多个注意力特征图,进而实现注意力特征信息的聚合学习,用于双眼图像交互;3)引入了一种新的融合技术——DFA模块,用以充分融合不同编码器之间的特征信息,促进来自Transformer分支的全局信息,降低CNN特征可能含有的噪声,使得CTA‑Net更好地利用了这两种模型的优点;在公开的数据集上的实验数据表明了,此发明具有高效性和优越性。
-
公开(公告)号:CN116561775A
公开(公告)日:2023-08-08
申请号:CN202310238312.5
申请日:2023-03-14
Applicant: 安徽理工大学
Abstract: 发明名称:一种基于密文域图像高平面压缩的可逆信息隐藏方法。摘要:本发明提出来一种基于密文域图像高平面压缩的可逆信息隐藏方法,本方法主要应用于云计算数据传输过程中的隐私安全保护问题。首先内容拥有者对原始明文图像进行基于块的块内扩散、块间置乱的加密;得到密文图像后,数据隐藏者将密文图像以块为单位分成八个位面,由于加密过程保留了块内像素的相关性,因此提高了高位面连续光滑的数量。再通过记录下连续光滑位面的位置及索引值,实现对其余位置的完全压缩以嵌入隐私数据。最后接收者可根据拥有的权限,对密文图像实现无损恢复和嵌入的隐私数据进行无误提取。本发明对于原始载体图像的像素间相关性特征做到了充分的利用,在保证安全性和可逆性的前提下预留出较大的空间用作秘密信息嵌入,可以满足实际应用中的需求,解决实际问题。
-
公开(公告)号:CN116403068A
公开(公告)日:2023-07-07
申请号:CN202310238309.3
申请日:2023-03-14
Applicant: 安徽理工大学
IPC: G06V10/774 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/048 , G06N3/08
Abstract: 发明提出一种基于多尺度注意力融合的轻量级单目深度预测方法,采用相对轻量级的主干网络完成单目深度预测任务。尝试将轻量级网络所产生的多层次特征与所提出的注意力机制模块结合,在速度有所提升的同时不损失精确度。首先利用主干网络生成多层次特征,将多层特征进行分组,在第3、4、5层使用通道注意力,关注通道之间的关系,通过对通道的加权来增强重要的特征,学习每个通道的重要性,使得模型能够更好地捕捉不同通道之间的信息,提高模型性能;在第1、2层采用空间注意力,关注空间位置之间的关系,通过对不同位置的特征进行加权来突出重要的位置信息。除此之外,将每层特征的差异融合到注意力机制,增强边界。通过提出的注意力机制进一步获得密集的深度信息,得到高质量的深度图,用于SLAM(SimultaneousLocalizationandMapping)、三维重建、自动驾驶、目标检测等下游任务。
-
公开(公告)号:CN115100641A
公开(公告)日:2022-09-23
申请号:CN202210477589.9
申请日:2022-04-26
Applicant: 安徽理工大学
Abstract: 本发明属于计算机视觉领域,提供了一种基于多尺度图神经网络和点云缩减网络的3D目标检测算法,包括以下步骤:1)利用PointNet++网络中的特征编码与特征编码模块对点云数据进行预处理,除去特定的无关背景以减少计算输入;2)利用关键点采样算法在点云中选取关键点,并以关键点为顶点固定半径内的空间邻点构建空间图;3)利用卷积神经网络对每个图进行特征提取,并以每个特征为顶点构建平面图,以某一结点为起点,固定搜索半径进行不同尺度的特征融合;4)使用MLP将特征转变成相同尺度,并利用混合损失函数训练此模型。大量的在多个公开的数据集上的实验数据表明了,此发明具有高效性和优越性。
-
公开(公告)号:CN114998609A
公开(公告)日:2022-09-02
申请号:CN202210544450.1
申请日:2022-05-18
Applicant: 安徽理工大学
IPC: G06V10/44 , G06V10/42 , G06V10/80 , G06V10/774 , G06V10/82
Abstract: 本发明提出了一种基于密集特征提取与轻量级网络的多类商品目标检测方法,本方法主要应用于多类商品目标检测中,包括:收集主流购物APP上的商品图片,将商品分类,进行人工标注,划分为训练集和验证集;使用数据增强Cutout和Mixup操作解决数据不纯、重复等问题,扩充数据集;利用MobileNetV2网络提取多层次局部特征,利用Swin Transformer获取全局特征,并将多层次局部特征嵌入到Transformer结构中进行融合,最后对损失函数优化,将模型应用到多类密集的商品检测中。本发明可以对多种不同大小商品目标进行快速精准的分类和定位,同时整体网络模型的参数对比同类目标检测内存占用小、推断速度快、性能好、参数小,可以应用于移动端和嵌入设备,解决实际生活中问题。
-
-
-
-
-
-
-
-
-