-
公开(公告)号:CN117994577A
公开(公告)日:2024-05-07
申请号:CN202410132820.X
申请日:2024-01-30
Applicant: 电子科技大学长三角研究院(衢州)
IPC: G06V10/764 , G06V10/80 , G06V10/82 , G06V10/774 , G06V10/52
Abstract: 本发明公开了一种基于双通道特征提取网络的数据处理方法,包括:将获取到的待处理数据输入至预先训练得到的目标网络模型中进行数据分析处理;其中,目标网络模型中包括第一特征提取网络和第二特征提取网络;基于第一特征提取网络对待处理数据进行特征提取,得到第一待融合特征;以及基于第二特征提取网络对待处理数据进行处理,得到包括空洞的第二待融合特征;对第一待融合特征和第二待融合特征融合处理,得到多尺度特征,并基于多尺度特征确定注意力矩阵;基于注意力矩阵和预先设定的随机概率值,确定目标特征;通过对目标特征分析处理,确定与待处理数据相对应的数据处理结果。解决了模型过拟合的问题,提高模型预测准确度。
-
公开(公告)号:CN112215353B
公开(公告)日:2023-09-01
申请号:CN202011050565.2
申请日:2020-09-29
Applicant: 电子科技大学
IPC: G06N3/082 , G06N3/0464
Abstract: 本发明属于卷积神经网络压缩与加速技术领域,具体提供一种基于变分结构优化网络的通道剪枝方法,通过基于变分结构优化网络的通道剪枝技术对深度卷积神经网络模型进行压缩,考虑了目前大型神经网络在资源受限上的应用局限性,采用通道剪枝技术对原始网络进行压缩,在不影响原始网络性能的前提下,尽可能的压缩网络参数,减少网络前向传播过程中激活层的内存占用,降低运行时进行的浮点运算次数,以实现轻量化网络的目标。本发明通过自动优化网络结构,卓有成效地降低了深度卷积神经网路的参数冗余,提高了其运行速度,从而扩大了神经网络在边缘设备上的应用场景。
-
公开(公告)号:CN115203529A
公开(公告)日:2022-10-18
申请号:CN202210529804.5
申请日:2022-05-16
Applicant: 电子科技大学
IPC: G06F16/9535 , G06Q30/06 , G06N3/04 , G06N3/08
Abstract: 本发明的目的在于提供一种基于多头自注意力机制的深度神经网络推荐模型,属于推荐技术领域。该模型设计会话划分层引入会话内和会话间不同行为之间的顺序位置信息,在会话兴趣交互层通过多头自注意力网络挖掘用户在会话中各行为间的多维隐性关系,然后在会话兴趣激活层结合上下文关系捕捉会话间用户兴趣的演化规律进行分块激活,使得模型能够多维度分析深层次隐性特征,从而提升了推荐系统的准确率。
-
公开(公告)号:CN111008978B
公开(公告)日:2022-10-14
申请号:CN201911239331.X
申请日:2019-12-06
Applicant: 电子科技大学
Abstract: 本发明公开了一种基于深度学习的视频场景分割方法,属于视频场景分割技术领域。本发明首先将待分割的视频数据转化为帧图像,再基于深度学习算法进行目标检测处理获取帧图像的背景候选框;并对帧图像进行关键背景候选框选取;基于关键背景候选框的位置信息,确定关键背景候选框所在的图像帧的相邻的后一图像帧上的对应所述位置信息的背景候选框;最后计算相邻图像帧的联合相似度相似度,若将联合相似度低于相似度阈值,则基于当前相邻帧的帧位置对待分割的一段视频数据进行视频分割。本发明可以在自动提取局部背景区域的情况下实现对视频背景信息进行相似度的判断,解决了传统算法中算法复杂度过高的问题,实现对复杂场景下背景分割。
-
公开(公告)号:CN108520215B
公开(公告)日:2022-10-11
申请号:CN201810262820.6
申请日:2018-03-28
Applicant: 电子科技大学
IPC: G06V40/16 , G06V10/74 , G06V10/774 , G06V10/764
Abstract: 本发明公开了一种基于多尺度联合特征编码器的单样本人脸识别方法,包括如下步骤:图像预处理;人脸区域划分;多尺度区域独立特征学习,对每块人脸区域分别训练,得到独立特征编码矩阵;联合特征学习,对各区域多尺度独立特征编码矩阵进行分解和聚类学习,得到联合特征编码矩阵;特征提取,通过多尺度联合特征编码矩阵对人脸图像进行特征提取;特征识别,对每个区域提取到的特征进行对比,获取识别结果。本发明提供了基于稀疏自动编码技术的联合特征学习方法,可以在有限的人脸训练数据条件下学习到鲁棒的人脸特征,解决了在遮挡和光照干扰情况下的人脸识别问题,极大扩大了人脸识别的应用场景。
-
公开(公告)号:CN114997216A
公开(公告)日:2022-09-02
申请号:CN202210526887.2
申请日:2022-05-16
Applicant: 电子科技大学
Abstract: 本发明属于轴承故障识别领域,具体提供一种基于张量多模态特征高阶匹配的轴承故障识别方法,用以对轴承振动多属性信号进行故障状态分析。本发明利用张量数据,根据实际应用场景中不同阶所代表属性之间的联系将各个阶分为不同的阶组,对张量进行多模态奇异值分解;对检测对象求其特征空间中的特征张量,对特征张量使用张量距离进行高阶匹配,进而判定其多属性,完成轴承故障的识别。本发明提供的多模态奇异值分解方法能够更加有效地将多个属性在分解中通过多模乘运算关联起来,能够更加充分地获取数据之间多个模态的联系,与基于张量距离的高阶匹配方法结合起来能够更加充分地利用信号的多属性特征,获得更好的故障状态识别效果。
-
公开(公告)号:CN111460883B
公开(公告)日:2022-05-03
申请号:CN202010074922.2
申请日:2020-01-22
Applicant: 电子科技大学
Abstract: 本发明公开了一种基于深度强化学习的视频行为自动描述方法,属于视频自动描述技术领域。本发明首先对视频数据进行图像预处理,将其转化为帧图像,然后提取空间域特征和时域特征,进行拼接后得到视频序列各帧的特征向量;再基于LSTM编码器将各帧编码为一个向量,以及基于LSTM解码器将固定向量解码成不同长度的自然语言。LSTM编码器和解码器所涉及的神经网络参数优化时的损失函数为生成词语与标注的参考语句的单词的交叉熵损失;从而获得准确的视频描述。进一步还可以对训练好的LSTM编码器、解码器进行强化学习,损失函数采用随机策略概率乘上随机策略奖励与最优策略奖励之差,以获得更高的描述准确率。
-
公开(公告)号:CN108520216B
公开(公告)日:2022-05-03
申请号:CN201810263768.6
申请日:2018-03-28
Applicant: 电子科技大学
IPC: G06V40/20 , G06V20/40 , G06V10/774 , G06K9/62 , G06N3/08
Abstract: 本发明公开了一种基于步态图像的身份识别方法,包括训练步骤,对步态图像序列进行行人检测和图像预处理并给相应的步态图像赋予标签值,再对其使用由卷积受限玻尔兹曼机和全连接层组成的特征学习网络进行训练,生成具有身份识别的特征学习网络模型和特征中心值模型;识别步骤,对待识别的步态图像进行行人检测和图像预处理,由归一化的自相关函数计算步态周期性以获取一个周期的步态序列,通过深度学习网络和投票算法对行人进行身份进行识别。本发明以周期性的步态图像序列作为输入,保留了完整的步态信息;采用深度学习网络进行特征学习,获取更多具有区分度的步态特征以提高识别率;通过深度学习网络和投票算法并用增强了识别的准确率和鲁棒性。
-
公开(公告)号:CN114187467A
公开(公告)日:2022-03-15
申请号:CN202111329957.7
申请日:2021-11-11
Applicant: 电子科技大学
Abstract: 本发明涉及一种基于CNN模型的肺结节良恶性分类方法及装置,所述方法包括获取肺结节CT扫描图像数据并对图像数据进行预处理;将预处理后的肺结节CT扫描图像数据输入到训练好的CNN神经网络模型中,CNN神经网络模型对肺结节CT扫描图像数据依次进行多层特征提取、双线性池化以及分类处理,得到结节的不同CT扫描图像数据的分类结果;将同一结节不同CT扫描图像数据的分类结果进行融合,确定结节的良恶性。本发明通过卷积神经网络的卷积层的深层和浅层分别提取多层特征,然后经过双线性池化进行特征融合,最后将双线性池化融合后的特征输入到支持向量机中得到分类结果,本申请旨在融合并增强相似特征,以增强对分类目标细微差别的区分能力。
-
公开(公告)号:CN112580445A
公开(公告)日:2021-03-30
申请号:CN202011406087.4
申请日:2020-12-03
Applicant: 电子科技大学
Abstract: 本发明属于步态识别技术领域,具体提供一种基于生成对抗网络的人体步态图像视角转化方法。本发明通过在训练过程中引入多种不同类型的判别器,并通过合理设置训练策略,从而使得该视角转化方法可以将输入视角下步态图像转化到多个不同目标视角,并且在转化的过程中有效避免身份信息的丢失。该视角转化方法可以被有效应用在跨视角步态识别场景中,通过将不同视角的步态图像转化到多个统一的视角,一方面,消除了视角差异对于步态识别准确率的影响,另一方面,相比于其他方法只转化到一个统一视角,本方法通过转化到多个统一视角,为后续身份识别提供了更加丰富的数据,可以有效提升跨视角步态识别准确率。
-
-
-
-
-
-
-
-
-