-
公开(公告)号:CN115346094A
公开(公告)日:2022-11-15
申请号:CN202211037831.7
申请日:2022-08-25
Applicant: 杭州电子科技大学 , 中电数据服务有限公司
IPC: G06V10/80 , G06V10/82 , G06V10/774 , G06N3/08 , G06N3/04
Abstract: 本发明涉及一种基于主体区域引导的伪装目标检测方法,包括训练图像预处理、伪装目标预测网络搭建和伪装目标预测网络的训练三个步骤。首先,通过训练图像预处理进行数据增强,然后搭建伪装目标预测网络,最后通过训练集图像完成伪装目标预测网络的训练,本发明方法针对编码部分包含丰富信息的浅层特征图,设计了主体区域分析模块进行有效提取,再通过特征融合模块利用对主体区域的预测信息,引导对伪装目标的检测。本发明方法提供的网络模型可以充分有效地利用主体区域引导信息来实现对自然图像中伪装目标的准确预测。
-
公开(公告)号:CN115040128A
公开(公告)日:2022-09-13
申请号:CN202210620317.X
申请日:2022-06-02
Applicant: 杭州电子科技大学 , 中电数据服务有限公司
IPC: A61B5/16
Abstract: 本发明公开了一种基于眼动数据的自闭症谱系障碍检测方法,包括如下步骤:S1、创建眼动图像的数据集;S2、搭建眼动特征提取网络,所述眼动特征提取网络以VGG‑16网络为主干网络;S3、通过眼动特征提取网络提取眼动特征,输出预测显著性图;S4、构建基于度量的损失函数,输入眼动特征并输出显著性检测结果,所述基于度量的损失函数选择标准化扫描路径、皮尔森相关系数和KL散度组合而成,S5、构建DRE损失函数,输入显著性检测结果并输出非显著检测结果,该方法运用眼动技术,可以高效率地分析婴幼儿的眼动情况,弥补传统工具中所具有的缺陷,具备客观、定量和迅速地将ASD患者的视觉注视异常这一现象反应出来的特点。
-
公开(公告)号:CN115019139A
公开(公告)日:2022-09-06
申请号:CN202210620320.1
申请日:2022-06-02
Applicant: 杭州电子科技大学 , 中电数据服务有限公司
Abstract: 本发明公开了一种基于双流网络的光场显著目标检测方法,包括如下步骤:S1、创建数据集,所述数据集包括焦片和RGB图像;S2、通过双流编码器提取焦片和RGB图像的特征;S3、特征融合S3‑1、将提取的焦片特征进行融合,使用焦片维注意力模块融合焦片中的有效信息;S3‑2、通过跨模态特征融合模块将步骤S3‑1得到的融合后的焦片特征和提取的RGB图像特征进行融合,得到跨模态融合特征;S4、通过解码模块对步骤S3得到的跨模态融合特征进行逐级解码。该方法通过跨模态特征融合模块能够有效地融合目标图像的特征、协同图像的特征和深度图像的特征。所以通过光场的输入来改善传统的基于RGB输入的显著目标检测具有良好的效果。
-
公开(公告)号:CN113935404B
公开(公告)日:2025-02-11
申请号:CN202111120902.5
申请日:2021-09-24
Applicant: 杭州电子科技大学
IPC: G06V10/776 , G06V10/774
Abstract: 本发明公开了一种光场显著性检测数据集清晰度评价方法。首先通过显著性区域掩膜制作三个掩膜,并获取对应的窗函数;通过掩膜A获得光场焦堆栈图像显著性区域图像;用傅里叶变换将焦堆栈显著性区域图像从空域转换到频域,获得其频谱信息;对显著性区域高频信息进行傅里叶反变换,得到空域图像;用腐蚀的掩膜B截取空域高频部分,计算高频图像灰度值之和,用以表示焦堆栈图像显著性区域高频能量值大小;对堆栈图像显著性区域高频能量值进行归一化,用来表示该图片的训练权重。本发明针对数据集焦堆栈中显著性区域进行清晰程度判定,并以此作为焦堆栈中该图片训练权重的评价标准,显著性区域越清晰,则该图片的训练权重越高。
-
公开(公告)号:CN119091117A
公开(公告)日:2024-12-06
申请号:CN202411098255.6
申请日:2024-08-12
Applicant: 杭州电子科技大学
IPC: G06V10/25 , G06V10/82 , G06V10/20 , G06V10/40 , G06V10/774 , G06N3/0464 , G06N3/09
Abstract: 本发明公开了一种基于深度学习的轻量级伪装目标检测方法,该方法首先获取伪装物体图像数据集,进行预处理,并划分为训练集和测试集。其次将测试集数据输入初级特征提取网络,进行初级特征提取。然后依次通过频谱门控单元、混合注意力机制、全局信息模块、边缘感知模块、边缘引导模块,对初级特征进行强化处理。最后基于深度可分离卷积,对强化处理后的初级特征进行解码,输出检测结果。本发明充分利用图像的RGB特征与频率特征,并结合边界引导实现对伪装目标的检测。
-
公开(公告)号:CN117857376A
公开(公告)日:2024-04-09
申请号:CN202311807202.2
申请日:2023-12-26
Applicant: 杭州电子科技大学
IPC: H04L41/147 , H04L41/16 , H04L43/0894
Abstract: 本发明公开了一种基于改进Transformer的网络带宽实时预测方法。首先根据用户自身需求获取数据集,然后使用箱型图方法对数据处理,剔除负数和异常值;建立基于改进Transformer的带宽预测模型,对传统的Transformer结构进行改进,引入了生成式编码结构;最后获取待预测场景当前的带宽数据作为训练好的模型的输入,获得网络带宽预测值,实时的带宽数据预测。本发明采用生成式编码结构改进Transformer模型在设计上更注重特征与目标的相关性,而不仅仅是特征之间的相关性。这种结构的设计使得模型更有可能学到输入序列中的有用信息,能够更好地捕捉目标与历史信息的关系。
-
公开(公告)号:CN113538442B
公开(公告)日:2024-04-09
申请号:CN202110624851.3
申请日:2021-06-04
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种使用自适应特征融合的RGB‑D显著目标检测方法,首先使用2个结构相同的编码器网络分别对RGB图像和Depth图像这2个数据流编码,编码后对2个数据流分别获得m个层级的特征;然后在RGB和Depth两个数据流的解码过程中分别使用自适应特征融合;在联合数据流中对2个数据流的特征融合;最后使用损失函数对该网络模型优化。本发明所述的方法,可以提高RGB‑D显著目标检测的效果。通过使用自适应特征融合,可以有效融合数据流内不同层级的特征。通过使用数据流间特征融合方法,可以有效融合2个数据流的特征。
-
公开(公告)号:CN113792621B
公开(公告)日:2024-04-05
申请号:CN202110995008.6
申请日:2021-08-27
Applicant: 杭州电子科技大学
IPC: G06V10/94 , G06V10/25 , G06V10/44 , G06V10/82 , G06N3/0464 , G06N3/063 , G06F9/50 , G06F8/76 , G06F8/41 , G06F9/38 , G06F9/302
Abstract: 本发明公开了一种基于FPGA的目标检测加速器设计方法,首先选择要移植到该平台上的目标检测算法;然后根据选择的算法的特点,在FPGA硬件平台下采用软硬件协同设计的思想进行总体架构设计;最后对所选择的目标检测算法模型网络参数进行16位动态定点数据量化,依据网络模型的运算特点对数据的调度进行规划,并提出一个CNN硬件加速器架构,包括输入输出模块、卷积模块、池化模块、重排序模块、全连接模块、激活模块以及控制模块。本发明方法利用较少的硬件资源完成目标检测加速器的设计,提高了总线带宽利用率,具有一定的通用性和可扩展性,功耗较低,可以达到一个较高的能效比,比较适合应用在有严重功耗限制的场所。
-
公开(公告)号:CN113392727B
公开(公告)日:2024-04-05
申请号:CN202110586099.8
申请日:2021-05-27
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种基于动态特征选择的RGB‑D显著目标检测方法。本发明提出了一种动态选择网络,包括动态选择模块DSM和跨模态全局上下文模块CGCM,其中DSM又包含了两个子模块:跨模态注意力模块CAM和双向门控池化模块BGPM。通过CAM从通道和空间的角度来动态地挖掘RGB和深度图之间的互补信息,通过CGCM从全局的角度来精准地凸出显著目标。通过BGPM,以门控选择的方式优化了跨级别信息,以动态选择的方式强化了多尺度信息。最后,本发明进一步引入了边缘监督策略,并将空间注意力机制嵌入到其中,以反馈的方式保证了显著目标边界的准确性和清晰性,有效提升了模型的细节表征能力。
-
公开(公告)号:CN117670679A
公开(公告)日:2024-03-08
申请号:CN202311680992.2
申请日:2023-12-08
Applicant: 杭州电子科技大学
IPC: G06T3/4053 , G06N3/0455 , G06N3/0464
Abstract: 本发明公开了一种基于全局分布学习的真实图像超分辨率重建方法。首先获取数据集,进行训练集和测试集的划分,然后对数据集中的图像进行格式转换,裁剪和数据增强操作;然后构建基于全局分布学习的真实图像超分辨率重建网络,包括全局分布学习模块、采样点计算模块和图像重建模块;通过低分辨率图像学习出图像的真实场景分布函数,再估计出采样点坐标,从而进行重新采样,构建出超分辨率图像;最后通过预处理后的数据集训练构建的真实图像超分辨率重建网络。相比现有的方法,只能重建整数倍比例因子的超分辨率图像,该发明能够重建出任意比例因子的超分辨率图像,且能获得更好的性能指标。
-
-
-
-
-
-
-
-
-