-
公开(公告)号:CN115375922B
公开(公告)日:2023-08-25
申请号:CN202211098512.7
申请日:2022-09-03
Applicant: 杭州电子科技大学 , 中电数据服务有限公司
IPC: G06V10/52 , G06N3/0464 , G06N3/048 , G06N3/08 , G06V10/32 , G06V10/34 , G06V10/80 , G06V10/82 , G06V10/26
Abstract: 本发明涉及一种基于多尺度空间注意力的轻量化显著性检测方法,包括以下步骤:步骤一、构建多尺度特征提取模块,并对输入信息进行处理;步骤二、依据深度可分离卷积及多尺度特征提取模块构建编码器,用于获取多级语义特征;步骤三、构建多尺度空间注意力模块;步骤四、依据深度可分离卷积与多尺度空间注意力模块构建解码器;步骤五、以编码器、解码器为基础,建立轻量化显著性检测模型;步骤六、对所建立轻量化显著性检测模型进行训练,并保存训练所得最终模型参数;本发明通过对图像中多尺度特征的充分挖掘以及图像全局特征的提取与利用,强化了轻量化模型的检测能力,在保持轻量化模型自身优势的同时,提升了模型的检测精度。
-
公开(公告)号:CN115346094B
公开(公告)日:2023-08-22
申请号:CN202211037831.7
申请日:2022-08-25
Applicant: 杭州电子科技大学 , 中电数据服务有限公司
IPC: G06V10/80 , G06V10/82 , G06V10/774 , G06N3/0464 , G06N3/09
Abstract: 本发明涉及一种基于主体区域引导的伪装目标检测方法,包括训练图像预处理、伪装目标预测网络搭建和伪装目标预测网络的训练三个步骤。首先,通过训练图像预处理进行数据增强,然后搭建伪装目标预测网络,最后通过训练集图像完成伪装目标预测网络的训练,本发明方法针对编码部分包含丰富信息的浅层特征图,设计了主体区域分析模块进行有效提取,再通过特征融合模块利用对主体区域的预测信息,引导对伪装目标的检测。本发明方法提供的网络模型可以充分有效地利用主体区域引导信息来实现对自然图像中伪装目标的准确预测。
-
公开(公告)号:CN115359019B
公开(公告)日:2023-07-11
申请号:CN202211045106.4
申请日:2022-08-25
Applicant: 杭州电子科技大学 , 中电数据服务有限公司
IPC: G06T7/00 , G06V10/764 , G06V10/774 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明涉及基于交互式特征和级联特征的钢铁表面缺陷检测方法,包括深度特征提取网络、深度特征融合网络和显著性预测网络。模型的输入是经扩增后的SD‑saliency‑900数据集。首先以级联的方式部署多分辨率的两个卷积分支(即高/低)级联特征集成(CFI)单元融合了来自多分辨率分支的最后一个卷积块的深度特征,得到增强的高级深度语义特征,并传递给解码器,在编码器部分,还部署了另一个连接,将相邻编码器级别的特征转移到解码器的同一阶段。本发明方法提供的网络模型可以充分有效地利用空间信息来生成高质量的显著性图,能够较好地突出缺陷。
-
公开(公告)号:CN115587967A
公开(公告)日:2023-01-10
申请号:CN202211093428.6
申请日:2022-09-06
Applicant: 杭州电子科技大学 , 中电数据服务有限公司
IPC: G06T7/00 , G06T7/11 , G06V10/764 , G06V10/774 , G06V10/74 , G06N3/04 , G06N3/08 , A61B3/12 , A61B3/14
Abstract: 本发明涉及一种基于HA‑UNet网络的眼底图像视盘检测方法,包括如下步骤:数据预处理、模型构建、模型训练和模型评估。所述数据预处理包括对图像的缩放与剪切;所述构建的HA‑UNet网络在原始UNet网络的基础上,采用残差模块替代原UNet中的卷积层,并提出混合注意力模块,即HA模块,建立多注意力机制与特征之间的关系,对前景信息与背景信息进行挖掘与融合,同时,该网络采用混合损失函数,即BCE损失函数、SSIM损失函数和IoU损失函数的结合作为模型最终的损失函数;所述模型训练即当模型的损失函数不再降低之后,保存模型;所述模型评估即将训练好的模型放到测试集上进行评估。
-
公开(公告)号:CN114898120A
公开(公告)日:2022-08-12
申请号:CN202210586991.0
申请日:2022-05-27
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种基于卷积神经网络的360度图像显著目标检测方法,包括如下步骤:S1、图像转换;S2、搭建特征金字塔网络;S3、采用四个特征聚合模块,每个模块由一个特征转换子模块完成立方体投影特征向等距形特征转换并与原等距形图像特征组合后,使用一个空洞卷积池化金字塔子模块实现特征的优化,从而得到多层次的聚合特征;S4、将多层次的聚合特征连接并馈送到注意力集成模块,通过推断空间和通道注意机制自适应地选择可靠空间和通道信息与原特征融合得到最终特征并完成显著目标检测。该方法使用图像映射关系基于等距形360度图像构建对应的立方体投影图像,使用双种类图像作为输入解决了单一等矩形图像输入造成的球面到平面投影的不良失真问题。
-
公开(公告)号:CN115294359B
公开(公告)日:2023-10-10
申请号:CN202210990986.6
申请日:2022-08-17
Applicant: 杭州电子科技大学 , 中电数据服务有限公司
Abstract: 本发明涉及一种基于深度学习的高分辨率图像显著性目标检测方法,包括步骤一、低分辨率分支的特征提取;步骤二、中分辨率分支的特征提取;步骤三、高分辨率分支的特征提取;步骤四、多分辨率特征的融合;步骤五、残差解码网络得到预测图;步骤六、级联标签监督并进行端到端训练。本发明提供的网络模型是并行网络,可以在充分有效地利用语义信息和细节信息来实现对高分辨率图像中显著性目标的预测的同时,在网络中保持高分辨率。
-
公开(公告)号:CN116486068A
公开(公告)日:2023-07-25
申请号:CN202211205490.X
申请日:2022-09-23
Applicant: 杭州电子科技大学 , 中电数据服务有限公司
IPC: G06V10/26 , G06V10/74 , G06V10/774 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/0455 , G06N3/0895
Abstract: 本发明涉及一种基于嵌套U型网络的COVID‑19病灶分割方法,构造一个以RSU为基本单元,经过少量带标签的样本训练获得的COVID‑19分割网络,引入边缘和语义信息增强网络对COVID‑19的表征能力,该网络可以将病灶区域精准快速地分割出来。此外,在标签图像极其有限的情况下,通过半监督学习策略,充分利用大量未标记的图像数据,进一步提升模型的性能表现。
-
公开(公告)号:CN115375922A
公开(公告)日:2022-11-22
申请号:CN202211098512.7
申请日:2022-09-03
Applicant: 杭州电子科技大学 , 中电数据服务有限公司
Abstract: 本发明涉及一种基于多尺度空间注意力的轻量化显著性检测方法,包括以下步骤:步骤一、构建多尺度特征提取模块,并对输入信息进行处理;步骤二、依据深度可分离卷积及多尺度特征提取模块构建编码器,用于获取多级语义特征;步骤三、构建多尺度空间注意力模块;步骤四、依据深度可分离卷积与多尺度空间注意力模块构建解码器;步骤五、以编码器、解码器为基础,建立轻量化显著性检测模型;步骤六、对所建立轻量化显著性检测模型进行训练,并保存训练所得最终模型参数;本发明通过对图像中多尺度特征的充分挖掘以及图像全局特征的提取与利用,强化了轻量化模型的检测能力,在保持轻量化模型自身优势的同时,提升了模型的检测精度。
-
公开(公告)号:CN115346094A
公开(公告)日:2022-11-15
申请号:CN202211037831.7
申请日:2022-08-25
Applicant: 杭州电子科技大学 , 中电数据服务有限公司
IPC: G06V10/80 , G06V10/82 , G06V10/774 , G06N3/08 , G06N3/04
Abstract: 本发明涉及一种基于主体区域引导的伪装目标检测方法,包括训练图像预处理、伪装目标预测网络搭建和伪装目标预测网络的训练三个步骤。首先,通过训练图像预处理进行数据增强,然后搭建伪装目标预测网络,最后通过训练集图像完成伪装目标预测网络的训练,本发明方法针对编码部分包含丰富信息的浅层特征图,设计了主体区域分析模块进行有效提取,再通过特征融合模块利用对主体区域的预测信息,引导对伪装目标的检测。本发明方法提供的网络模型可以充分有效地利用主体区域引导信息来实现对自然图像中伪装目标的准确预测。
-
公开(公告)号:CN115040128A
公开(公告)日:2022-09-13
申请号:CN202210620317.X
申请日:2022-06-02
Applicant: 杭州电子科技大学 , 中电数据服务有限公司
IPC: A61B5/16
Abstract: 本发明公开了一种基于眼动数据的自闭症谱系障碍检测方法,包括如下步骤:S1、创建眼动图像的数据集;S2、搭建眼动特征提取网络,所述眼动特征提取网络以VGG‑16网络为主干网络;S3、通过眼动特征提取网络提取眼动特征,输出预测显著性图;S4、构建基于度量的损失函数,输入眼动特征并输出显著性检测结果,所述基于度量的损失函数选择标准化扫描路径、皮尔森相关系数和KL散度组合而成,S5、构建DRE损失函数,输入显著性检测结果并输出非显著检测结果,该方法运用眼动技术,可以高效率地分析婴幼儿的眼动情况,弥补传统工具中所具有的缺陷,具备客观、定量和迅速地将ASD患者的视觉注视异常这一现象反应出来的特点。
-
-
-
-
-
-
-
-
-