-
-
公开(公告)号:CN114627299B
公开(公告)日:2023-10-27
申请号:CN202210420891.0
申请日:2022-04-21
Applicant: 杭州电子科技大学
IPC: G06V10/26 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种模仿人类视觉系统对伪装目标检测与分割方法,该包括如下步骤:S1、制作预训练数据集;S2、构建基于模仿人类视觉系统对伪装目标检测与分割的模型,所述模型包括编码器模块、桥接模块、邻域连接解码器模块和部分解码器模块;S3、通过编码器模块提取显著性信息;S4、通过桥接模块扩大全局感受野;S5、通过领域连接解码器模块生成粗糙位置图;S6、通过部分解码器模块生成精确的位置图;S7、训练构建好的基于模仿人类视觉系统对伪装目标检测与分割模型。方法主要由编码器模块,桥接模块,邻域连接解码器模块和部分解码器模块组成,通过对神经网络进行训练,得到最优参数,实现对伪装目标的自动检测与分割。
-
公开(公告)号:CN115587967B
公开(公告)日:2023-10-10
申请号:CN202211093428.6
申请日:2022-09-06
Applicant: 杭州电子科技大学 , 中电数据服务有限公司
IPC: G06T7/00 , G06T7/11 , G06V10/764 , G06V10/774 , G06V10/74 , G06N3/0464 , G06N3/08 , A61B3/12 , A61B3/14
Abstract: 本发明涉及一种基于HA‑UNet网络的眼底图像视盘检测方法,包括如下步骤:数据预处理、模型构建、模型训练和模型评估。所述数据预处理包括对图像的缩放与剪切;所述构建的HA‑UNet网络在原始UNet网络的基础上,采用残差模块替代原UNet中的卷积层,并提出混合注意力模块,即HA模块,建立多注意力机制与特征之间的关系,对前景信息与背景信息进行挖掘与融合,同时,该网络采用混合损失函数,即BCE损失函数、SSIM损失函数和IoU损失函数的结合作为模型最终的损失函数;所述模型训练即当模型的损失函数不再降低之后,保存模型;所述模型评估即将训练好的模型放到测试集上进行评估。
-
公开(公告)号:CN113554599B
公开(公告)日:2023-08-18
申请号:CN202110718776.7
申请日:2021-06-28
Applicant: 杭州电子科技大学
IPC: G06T7/00 , G06V10/42 , G06V10/77 , G06V10/80 , G06V10/82 , G06N3/045 , G06N3/0442 , G06N3/049 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种基于人类视觉效应的视频质量评价方法。本发本发明方法包括内容特征提取网络、上下文注意机制网络和时间记忆效应网络。模型的输入是当前帧图像。首先,深度特征提取网络提取内容感知特征,注意力模块采用循环神经网络强化学习内容感知特征,再将注意力感知转移。然后,将内容感知特征与注意力感知转移相结合得到当前帧的质量得分,通过时间记忆效应模型对帧质量得分进行全局平均池化,得到视频的总体质量。本发明方法提供的网络模型可以充分有效地利用模仿人类视觉行为来实现对视频的质量评价。
-
公开(公告)号:CN114241308B
公开(公告)日:2023-08-04
申请号:CN202111551765.0
申请日:2021-12-17
Applicant: 杭州电子科技大学
IPC: G06V20/10 , G06V10/46 , G06V10/82 , G06N3/0464 , G06N3/0455 , G06N3/048
Abstract: 本发明公开了一种基于压缩模块的轻量化遥感图像显著性检测方法。首先对输入压缩模块的信息进行预处理,然后获取显著性信息和多感受野信息;再融合显著性信息与多感受野信息,作为压缩模块输出;最后依据压缩模块,构建轻量化模型。本发明方法通过对输入压缩模块的信息进行压缩,从而减少了后续操作所需参数量,进而降低了模型整体的大小并提升了检测速度。本发明方法通过利用互补信息来丰富模块的提取能力,加强了轻量化模型的整体性能,从而较好地实现对遥感图像进行显著性检测。
-
公开(公告)号:CN115359019A
公开(公告)日:2022-11-18
申请号:CN202211045106.4
申请日:2022-08-25
Applicant: 杭州电子科技大学 , 中电数据服务有限公司
IPC: G06T7/00 , G06V10/764 , G06V10/774 , G06V10/80 , G06V10/82 , G06N3/04 , G06N3/08
Abstract: 本发明涉及基于交互式特征和级联特征的钢铁表面缺陷检测方法,包括深度特征提取网络、深度特征融合网络和显著性预测网络。模型的输入是经扩增后的SD‑saliency‑900数据集。首先以级联的方式部署多分辨率的两个卷积分支(即高/低)级联特征集成(CFI)单元融合了来自多分辨率分支的最后一个卷积块的深度特征,得到增强的高级深度语义特征,并传递给解码器,在编码器部分,还部署了另一个连接,将相邻编码器级别的特征转移到解码器的同一阶段。本发明方法提供的网络模型可以充分有效地利用空间信息来生成高质量的显著性图,能够较好地突出缺陷。
-
公开(公告)号:CN114219790A
公开(公告)日:2022-03-22
申请号:CN202111551782.4
申请日:2021-12-17
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种基于边缘信息的钢铁表面缺陷显著性检测方法,首先构建基于边缘信息的钢铁表面缺陷显著性检测模型,包括编码器部分、边缘信息提取模块和解码器部分;通过编码器部分提取显著性信息,通过边缘信息提取模块获得边缘信息,最后通过解码器部分融合显著性信息与边缘信息,输出模型预测的结果图。本发明方法通过在编码器部分引入通道注意力机制,对于所提取信息当中重要的部分赋予更大权重,从而使得编码器能更有效地提取信息。本发明还利用编码器输出的信息,提取获得边缘信息并用于指导解码器部分结果图的生成,加强了前景与背景边界区域的检测能力,从而有效地对钢铁表面缺陷区域进行显著性检测。
-
公开(公告)号:CN113411566A
公开(公告)日:2021-09-17
申请号:CN202110534076.2
申请日:2021-05-17
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种基于深度学习的无参考视频质量评价方法。本发明方法包括预训练的卷积神经网络,融合时域特征的双向GRU网络和视频质量预测网络。首先,预训练的卷积神经网络提取每一帧的内容感知特征,用全局池化对特征进行处理,丢弃冗余信息,保存变化信息。然后采用全连接层对特征降维,用双向GRU网络融合前后的时域特征。最后,利用全连接层计算帧质量分数,再汇集整体视频质量,产生预测分数。本发明提供的网络模型充分有效地考虑到视频的内容依赖性和时间滞后效应来实现对视频质量分数的评价。
-
公开(公告)号:CN112598043A
公开(公告)日:2021-04-02
申请号:CN202011495029.3
申请日:2020-12-17
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种基于弱监督学习的协同显著性检测方法。本发明包括以下步骤:步骤(1)深度神经网络的构建和预训练;步骤(2)弱监督数据集的划分;步骤(3)显著性图像样本增强;步骤(4)协同显著性图的预测。使用弱监督的方式隐式地抓取图像间的协同特征,使用样本图像增强的方式增加神经网络的鲁棒性。协同显著性检测中,如何利用好图像间的协同特征是关键的,本发明使用约50%的样本输入到神经网络中进行训练微调隐式获取图像间的协同特征。同时存在图像样本中显著性目标在像素层面所占的比例较小的情况,不利于神经网络的训练和微调,本发明使用一种图像样本增强的手段来克服这一点,来实现对一组图像中显著性目标的预测。
-
公开(公告)号:CN111242138A
公开(公告)日:2020-06-05
申请号:CN202010028837.2
申请日:2020-01-11
Applicant: 杭州电子科技大学
Abstract: 本发明提供一种基于多尺度特征融合的RGBD显著性检测方法。本发明首先构建了显著性检测模型,通过双流特征提取模块提取多级RGB图像特征和深度图像特征;通过多尺度特征池化模块和多尺度特征聚合模块进一步提取深层次特征。同时利用深度融合模块逐级融合来自于特征提取分支、多尺度特征池化模块和多尺度特征聚合模块的特征。显著性边界细化模块通过来自于RGB图像特征提取分支和深度图像特征提取分支的浅层特征进行边界约束,达到细化边界的目的;同时利用深度融合模块的输出特征进行全局约束,达到全局优化的目的。本发明实现了端到端的显著性预测,将边缘信息引入到了显著性检测中,可以充分有效地利用RGB图像信息和深度图像信息来预测显著性区域。
-
-
-
-
-
-
-
-
-