一种基于主体区域引导的伪装目标检测方法

    公开(公告)号:CN115346094A

    公开(公告)日:2022-11-15

    申请号:CN202211037831.7

    申请日:2022-08-25

    Abstract: 本发明涉及一种基于主体区域引导的伪装目标检测方法,包括训练图像预处理、伪装目标预测网络搭建和伪装目标预测网络的训练三个步骤。首先,通过训练图像预处理进行数据增强,然后搭建伪装目标预测网络,最后通过训练集图像完成伪装目标预测网络的训练,本发明方法针对编码部分包含丰富信息的浅层特征图,设计了主体区域分析模块进行有效提取,再通过特征融合模块利用对主体区域的预测信息,引导对伪装目标的检测。本发明方法提供的网络模型可以充分有效地利用主体区域引导信息来实现对自然图像中伪装目标的准确预测。

    一种基于眼动数据的自闭症谱系障碍检测方法

    公开(公告)号:CN115040128A

    公开(公告)日:2022-09-13

    申请号:CN202210620317.X

    申请日:2022-06-02

    Abstract: 本发明公开了一种基于眼动数据的自闭症谱系障碍检测方法,包括如下步骤:S1、创建眼动图像的数据集;S2、搭建眼动特征提取网络,所述眼动特征提取网络以VGG‑16网络为主干网络;S3、通过眼动特征提取网络提取眼动特征,输出预测显著性图;S4、构建基于度量的损失函数,输入眼动特征并输出显著性检测结果,所述基于度量的损失函数选择标准化扫描路径、皮尔森相关系数和KL散度组合而成,S5、构建DRE损失函数,输入显著性检测结果并输出非显著检测结果,该方法运用眼动技术,可以高效率地分析婴幼儿的眼动情况,弥补传统工具中所具有的缺陷,具备客观、定量和迅速地将ASD患者的视觉注视异常这一现象反应出来的特点。

    一种基于双流网络的光场显著目标检测方法

    公开(公告)号:CN115019139A

    公开(公告)日:2022-09-06

    申请号:CN202210620320.1

    申请日:2022-06-02

    Abstract: 本发明公开了一种基于双流网络的光场显著目标检测方法,包括如下步骤:S1、创建数据集,所述数据集包括焦片和RGB图像;S2、通过双流编码器提取焦片和RGB图像的特征;S3、特征融合S3‑1、将提取的焦片特征进行融合,使用焦片维注意力模块融合焦片中的有效信息;S3‑2、通过跨模态特征融合模块将步骤S3‑1得到的融合后的焦片特征和提取的RGB图像特征进行融合,得到跨模态融合特征;S4、通过解码模块对步骤S3得到的跨模态融合特征进行逐级解码。该方法通过跨模态特征融合模块能够有效地融合目标图像的特征、协同图像的特征和深度图像的特征。所以通过光场的输入来改善传统的基于RGB输入的显著目标检测具有良好的效果。

    一种光场显著性检测数据集清晰度评价方法

    公开(公告)号:CN113935404B

    公开(公告)日:2025-02-11

    申请号:CN202111120902.5

    申请日:2021-09-24

    Abstract: 本发明公开了一种光场显著性检测数据集清晰度评价方法。首先通过显著性区域掩膜制作三个掩膜,并获取对应的窗函数;通过掩膜A获得光场焦堆栈图像显著性区域图像;用傅里叶变换将焦堆栈显著性区域图像从空域转换到频域,获得其频谱信息;对显著性区域高频信息进行傅里叶反变换,得到空域图像;用腐蚀的掩膜B截取空域高频部分,计算高频图像灰度值之和,用以表示焦堆栈图像显著性区域高频能量值大小;对堆栈图像显著性区域高频能量值进行归一化,用来表示该图片的训练权重。本发明针对数据集焦堆栈中显著性区域进行清晰程度判定,并以此作为焦堆栈中该图片训练权重的评价标准,显著性区域越清晰,则该图片的训练权重越高。

    一种基于改进Transformer的网络带宽实时预测方法

    公开(公告)号:CN117857376A

    公开(公告)日:2024-04-09

    申请号:CN202311807202.2

    申请日:2023-12-26

    Abstract: 本发明公开了一种基于改进Transformer的网络带宽实时预测方法。首先根据用户自身需求获取数据集,然后使用箱型图方法对数据处理,剔除负数和异常值;建立基于改进Transformer的带宽预测模型,对传统的Transformer结构进行改进,引入了生成式编码结构;最后获取待预测场景当前的带宽数据作为训练好的模型的输入,获得网络带宽预测值,实时的带宽数据预测。本发明采用生成式编码结构改进Transformer模型在设计上更注重特征与目标的相关性,而不仅仅是特征之间的相关性。这种结构的设计使得模型更有可能学到输入序列中的有用信息,能够更好地捕捉目标与历史信息的关系。

    一种使用自适应特征融合的RGB-D显著目标检测方法

    公开(公告)号:CN113538442B

    公开(公告)日:2024-04-09

    申请号:CN202110624851.3

    申请日:2021-06-04

    Abstract: 本发明公开了一种使用自适应特征融合的RGB‑D显著目标检测方法,首先使用2个结构相同的编码器网络分别对RGB图像和Depth图像这2个数据流编码,编码后对2个数据流分别获得m个层级的特征;然后在RGB和Depth两个数据流的解码过程中分别使用自适应特征融合;在联合数据流中对2个数据流的特征融合;最后使用损失函数对该网络模型优化。本发明所述的方法,可以提高RGB‑D显著目标检测的效果。通过使用自适应特征融合,可以有效融合数据流内不同层级的特征。通过使用数据流间特征融合方法,可以有效融合2个数据流的特征。

    一种基于动态特征选择的RGB-D显著目标检测方法

    公开(公告)号:CN113392727B

    公开(公告)日:2024-04-05

    申请号:CN202110586099.8

    申请日:2021-05-27

    Abstract: 本发明公开了一种基于动态特征选择的RGB‑D显著目标检测方法。本发明提出了一种动态选择网络,包括动态选择模块DSM和跨模态全局上下文模块CGCM,其中DSM又包含了两个子模块:跨模态注意力模块CAM和双向门控池化模块BGPM。通过CAM从通道和空间的角度来动态地挖掘RGB和深度图之间的互补信息,通过CGCM从全局的角度来精准地凸出显著目标。通过BGPM,以门控选择的方式优化了跨级别信息,以动态选择的方式强化了多尺度信息。最后,本发明进一步引入了边缘监督策略,并将空间注意力机制嵌入到其中,以反馈的方式保证了显著目标边界的准确性和清晰性,有效提升了模型的细节表征能力。

    一种基于全局分布学习的真实图像超分辨率重建方法

    公开(公告)号:CN117670679A

    公开(公告)日:2024-03-08

    申请号:CN202311680992.2

    申请日:2023-12-08

    Abstract: 本发明公开了一种基于全局分布学习的真实图像超分辨率重建方法。首先获取数据集,进行训练集和测试集的划分,然后对数据集中的图像进行格式转换,裁剪和数据增强操作;然后构建基于全局分布学习的真实图像超分辨率重建网络,包括全局分布学习模块、采样点计算模块和图像重建模块;通过低分辨率图像学习出图像的真实场景分布函数,再估计出采样点坐标,从而进行重新采样,构建出超分辨率图像;最后通过预处理后的数据集训练构建的真实图像超分辨率重建网络。相比现有的方法,只能重建整数倍比例因子的超分辨率图像,该发明能够重建出任意比例因子的超分辨率图像,且能获得更好的性能指标。

Patent Agency Ranking