-
公开(公告)号:CN115329213A
公开(公告)日:2022-11-11
申请号:CN202210955735.4
申请日:2022-08-10
Applicant: 杭州电子科技大学 , 新华融合媒体科技发展(北京)有限公司
IPC: G06F16/9536 , G06Q30/06 , G06N3/04
Abstract: 本发明公开了一种基于双通道变分超图自编码器的协同过滤推荐方法,首先对用户‑物品交互数据以超图形式进行建模;然后获得的超图生成其对偶超图;再利用双通道变分超图自编码器分别对用户和物品进行特征提取,生成用户嵌入和物品嵌入,并计算用户喜欢该物品的概率;最后训练双通道变分超图自编码器模型。本发明技术方案将用户‑物品交互信息以超图形式建模,可以捕获用户和物品间的高阶复杂关系,并且采用带有跳跃连接优化的变分超图自编码器学习用户和物品的潜在分布,能够带来更好的推荐效果。
-
公开(公告)号:CN119560132A
公开(公告)日:2025-03-04
申请号:CN202411642952.3
申请日:2024-11-18
Applicant: 杭州电子科技大学 , 中电数据服务有限公司
IPC: G16H50/20 , G06F18/10 , G06F18/214 , G06N3/0455 , G06N3/0464 , G06N3/0442 , G06N3/049 , G06F18/213 , G06N3/047 , G06N3/084 , G06F18/2131 , G06N3/048 , G06F18/24 , G16H50/70
Abstract: 本发明涉及一种基于编码器‑解码器框架的中医脉象诊断方法,包括收集数据、数据集的预处理、构建基于编码器‑解码器框架的神经网络、训练网络和测试。本发明将脉象信号诊断问题建模为机器翻译问题,在脉象信号与诊断文本之间建立映射,解决如何利用深度神经网络从复杂的脉象信号中提取出关键特征,提升脉象信号诊断的准确度,并直接生成对于脉象信号的诊断文本。
-
公开(公告)号:CN119559396A
公开(公告)日:2025-03-04
申请号:CN202411642448.3
申请日:2024-11-18
Applicant: 杭州电子科技大学 , 中电数据服务有限公司
Abstract: 本发明涉及一种基于CNN、RNN和交叉注意力机制的小样本语义分割方法,包括数据集的预处理、构建小样本语义分割网络、训练网络和测试。本发明解决查询图像背景特征无法匹配上支持图像的前景特征,丢失一些空间细节等主要问题。
-
公开(公告)号:CN113935404B
公开(公告)日:2025-02-11
申请号:CN202111120902.5
申请日:2021-09-24
Applicant: 杭州电子科技大学
IPC: G06V10/776 , G06V10/774
Abstract: 本发明公开了一种光场显著性检测数据集清晰度评价方法。首先通过显著性区域掩膜制作三个掩膜,并获取对应的窗函数;通过掩膜A获得光场焦堆栈图像显著性区域图像;用傅里叶变换将焦堆栈显著性区域图像从空域转换到频域,获得其频谱信息;对显著性区域高频信息进行傅里叶反变换,得到空域图像;用腐蚀的掩膜B截取空域高频部分,计算高频图像灰度值之和,用以表示焦堆栈图像显著性区域高频能量值大小;对堆栈图像显著性区域高频能量值进行归一化,用来表示该图片的训练权重。本发明针对数据集焦堆栈中显著性区域进行清晰程度判定,并以此作为焦堆栈中该图片训练权重的评价标准,显著性区域越清晰,则该图片的训练权重越高。
-
公开(公告)号:CN119091117A
公开(公告)日:2024-12-06
申请号:CN202411098255.6
申请日:2024-08-12
Applicant: 杭州电子科技大学
IPC: G06V10/25 , G06V10/82 , G06V10/20 , G06V10/40 , G06V10/774 , G06N3/0464 , G06N3/09
Abstract: 本发明公开了一种基于深度学习的轻量级伪装目标检测方法,该方法首先获取伪装物体图像数据集,进行预处理,并划分为训练集和测试集。其次将测试集数据输入初级特征提取网络,进行初级特征提取。然后依次通过频谱门控单元、混合注意力机制、全局信息模块、边缘感知模块、边缘引导模块,对初级特征进行强化处理。最后基于深度可分离卷积,对强化处理后的初级特征进行解码,输出检测结果。本发明充分利用图像的RGB特征与频率特征,并结合边界引导实现对伪装目标的检测。
-
公开(公告)号:CN117857376A
公开(公告)日:2024-04-09
申请号:CN202311807202.2
申请日:2023-12-26
Applicant: 杭州电子科技大学
IPC: H04L41/147 , H04L41/16 , H04L43/0894
Abstract: 本发明公开了一种基于改进Transformer的网络带宽实时预测方法。首先根据用户自身需求获取数据集,然后使用箱型图方法对数据处理,剔除负数和异常值;建立基于改进Transformer的带宽预测模型,对传统的Transformer结构进行改进,引入了生成式编码结构;最后获取待预测场景当前的带宽数据作为训练好的模型的输入,获得网络带宽预测值,实时的带宽数据预测。本发明采用生成式编码结构改进Transformer模型在设计上更注重特征与目标的相关性,而不仅仅是特征之间的相关性。这种结构的设计使得模型更有可能学到输入序列中的有用信息,能够更好地捕捉目标与历史信息的关系。
-
公开(公告)号:CN113538442B
公开(公告)日:2024-04-09
申请号:CN202110624851.3
申请日:2021-06-04
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种使用自适应特征融合的RGB‑D显著目标检测方法,首先使用2个结构相同的编码器网络分别对RGB图像和Depth图像这2个数据流编码,编码后对2个数据流分别获得m个层级的特征;然后在RGB和Depth两个数据流的解码过程中分别使用自适应特征融合;在联合数据流中对2个数据流的特征融合;最后使用损失函数对该网络模型优化。本发明所述的方法,可以提高RGB‑D显著目标检测的效果。通过使用自适应特征融合,可以有效融合数据流内不同层级的特征。通过使用数据流间特征融合方法,可以有效融合2个数据流的特征。
-
公开(公告)号:CN113792621B
公开(公告)日:2024-04-05
申请号:CN202110995008.6
申请日:2021-08-27
Applicant: 杭州电子科技大学
IPC: G06V10/94 , G06V10/25 , G06V10/44 , G06V10/82 , G06N3/0464 , G06N3/063 , G06F9/50 , G06F8/76 , G06F8/41 , G06F9/38 , G06F9/302
Abstract: 本发明公开了一种基于FPGA的目标检测加速器设计方法,首先选择要移植到该平台上的目标检测算法;然后根据选择的算法的特点,在FPGA硬件平台下采用软硬件协同设计的思想进行总体架构设计;最后对所选择的目标检测算法模型网络参数进行16位动态定点数据量化,依据网络模型的运算特点对数据的调度进行规划,并提出一个CNN硬件加速器架构,包括输入输出模块、卷积模块、池化模块、重排序模块、全连接模块、激活模块以及控制模块。本发明方法利用较少的硬件资源完成目标检测加速器的设计,提高了总线带宽利用率,具有一定的通用性和可扩展性,功耗较低,可以达到一个较高的能效比,比较适合应用在有严重功耗限制的场所。
-
公开(公告)号:CN113392727B
公开(公告)日:2024-04-05
申请号:CN202110586099.8
申请日:2021-05-27
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种基于动态特征选择的RGB‑D显著目标检测方法。本发明提出了一种动态选择网络,包括动态选择模块DSM和跨模态全局上下文模块CGCM,其中DSM又包含了两个子模块:跨模态注意力模块CAM和双向门控池化模块BGPM。通过CAM从通道和空间的角度来动态地挖掘RGB和深度图之间的互补信息,通过CGCM从全局的角度来精准地凸出显著目标。通过BGPM,以门控选择的方式优化了跨级别信息,以动态选择的方式强化了多尺度信息。最后,本发明进一步引入了边缘监督策略,并将空间注意力机制嵌入到其中,以反馈的方式保证了显著目标边界的准确性和清晰性,有效提升了模型的细节表征能力。
-
公开(公告)号:CN117670679A
公开(公告)日:2024-03-08
申请号:CN202311680992.2
申请日:2023-12-08
Applicant: 杭州电子科技大学
IPC: G06T3/4053 , G06N3/0455 , G06N3/0464
Abstract: 本发明公开了一种基于全局分布学习的真实图像超分辨率重建方法。首先获取数据集,进行训练集和测试集的划分,然后对数据集中的图像进行格式转换,裁剪和数据增强操作;然后构建基于全局分布学习的真实图像超分辨率重建网络,包括全局分布学习模块、采样点计算模块和图像重建模块;通过低分辨率图像学习出图像的真实场景分布函数,再估计出采样点坐标,从而进行重新采样,构建出超分辨率图像;最后通过预处理后的数据集训练构建的真实图像超分辨率重建网络。相比现有的方法,只能重建整数倍比例因子的超分辨率图像,该发明能够重建出任意比例因子的超分辨率图像,且能获得更好的性能指标。
-
-
-
-
-
-
-
-
-