-
公开(公告)号:CN117993478A
公开(公告)日:2024-05-07
申请号:CN202410130275.0
申请日:2024-01-30
Applicant: 电子科技大学长三角研究院(衢州)
Abstract: 本发明公开了一种基于双向知识蒸馏和联邦学习的模型训练方法、装置、电子设备及存储介质。该方法由客户端执行,包括:接收服务器发送的全局模型;对所述全局模型和位于客户端的局部模型进行双向知识蒸馏训练,得到中间全局模型;将所述中间全局模型发送至所述服务器,以使所述服务器对各客户端发送的中间全局模型进行模型聚合,得到目标全局模型。上述技术方案,提升了模型训练精度。
-
公开(公告)号:CN117952834A
公开(公告)日:2024-04-30
申请号:CN202410128157.6
申请日:2024-01-30
Applicant: 电子科技大学长三角研究院(衢州)
IPC: G06T3/4076 , G06N20/00
Abstract: 本发明公开了一种图像处理方法。具体方案为:获取第一分辨率图像;将第一分辨率图像输入至图像重构模型中进行分辨率调整处理,以得到与第一分辨率图像相对应的第二分辨率图像;其中,第一分辨率图像的分辨率低于第二分辨率图像的分辨率,图像重构模型中包括混合注意力模块,图像重构模型在训练阶段的损失值包括正交解耦模块确定的正交损失和基于分配权重矩阵确定的损失;输出第二分辨率图像。本发明利用图像重构模型对第一分辨率图像进行处理,获得第二分辨率图像,保证了第二分辨率图像的质量,提高了图像处理的准确率。
-
公开(公告)号:CN114998167B
公开(公告)日:2024-04-05
申请号:CN202210528487.5
申请日:2022-05-16
Applicant: 电子科技大学
IPC: G06T5/50 , G06V10/764 , G06V10/80
Abstract: 本发明属于高光谱与多光谱图像融合领域,具体提供一种基于空间‑光谱联合低秩的高光谱与多光谱图像融合方法,通过对空间‑光谱维度的非局部低秩表示和相关优化方法实现高光谱与多光谱图像的融合。在尽可能减少光谱失真的前提下,利用已知多光谱图像丰富的空间信息进行非局部自相似数据块的提取,接着考虑重构图像空间和光谱维度的低秩特性,采用低变换张量秩的方式探索图像中的相似性和相关性,最后通过分段优化的思想和交替方向乘子法迭代求解目标优化函数实现高光谱与多光谱图像的融合。本发明通过非局部联合低秩实现了高光谱与多光谱图像的有效融合,从而得到高分辨率的高光谱图像,进一步使得光谱图像的应用更加广泛。
-
公开(公告)号:CN117475229A
公开(公告)日:2024-01-30
申请号:CN202311484787.9
申请日:2023-11-08
Applicant: 电子科技大学长三角研究院(衢州)
IPC: G06V10/764 , G06V10/774 , G06V10/82 , G06V10/75 , G06T7/73 , G06N3/0464
Abstract: 本发明公开了应用于开放世界的目标检测模型构建和训练方法,确定目标图像对应的特征嵌入;基于随机区域生成器,生成至少一个随机检测框;将特征嵌入和随机检测框输入至解码器,得到与各随机检测框对应的图像特征检测框;将各图像特征检测框分别输入至二分匹配网络,得到各图像特征检测框与预设检测类别对应的匹配信息;将匹配信息满足预设条件的第一图像特征检测框,输入至分类预测网络中,得到各第一图像特征检测框的对象类别结果、对象边界框和第一对象分数;将匹配信息不满足预设条件的第二图像特征检测框,输入至对象分数层,得到第二对象分数,并训练目标检测模型,本申请实现了开放环境下对未知类别的检测。
-
公开(公告)号:CN117372375A
公开(公告)日:2024-01-09
申请号:CN202311373888.9
申请日:2023-10-23
Applicant: 电子科技大学长三角研究院(衢州)
IPC: G06T7/00 , G06N3/0455 , G06N3/08
Abstract: 本发明公开了一种焊接缺陷检测方法及装置,该方法包括:基于多个电路板的第一扫描图,确定训练样本集;其中,电路板上焊接着多个元器件,第一扫描图为电路板对应的X射线照射图像;基于训练样本集对待训练图像处理模型进行预训练,确定预训练后图像处理模型的编码器;基于编码器以及预设解码器,确定待训练缺陷检测模型;基于训练样本集对待训练缺陷检测模型进行训练,得到目标缺陷检测模型;将第二扫描图输入至目标缺陷检测模型中,得到第二扫描图对应的缺陷检测图像;其中,第二扫描图为待检测缺陷的电路板对应的X射线照射图像,本申请提高了检测焊接缺陷的效率和精度。
-
公开(公告)号:CN112580445B
公开(公告)日:2022-10-11
申请号:CN202011406087.4
申请日:2020-12-03
Applicant: 电子科技大学
IPC: G06V40/20 , G06V10/774 , G06V10/764 , G06V10/80 , G06V10/82 , G06N3/04 , G06N3/08
Abstract: 本发明属于步态识别技术领域,具体提供一种基于生成对抗网络的人体步态图像视角转化方法。本发明通过在训练过程中引入多种不同类型的判别器,并通过合理设置训练策略,从而使得该视角转化方法可以将输入视角下步态图像转化到多个不同目标视角,并且在转化的过程中有效避免身份信息的丢失。该视角转化方法可以被有效应用在跨视角步态识别场景中,通过将不同视角的步态图像转化到多个统一的视角,一方面,消除了视角差异对于步态识别准确率的影响,另一方面,相比于其他方法只转化到一个统一视角,本方法通过转化到多个统一视角,为后续身份识别提供了更加丰富的数据,可以有效提升跨视角步态识别准确率。
-
公开(公告)号:CN114998648A
公开(公告)日:2022-09-02
申请号:CN202210526868.X
申请日:2022-05-16
Applicant: 电子科技大学
IPC: G06V10/764 , G06V10/82 , G06N3/04 , G06N3/08
Abstract: 本发明公开一种基于梯度架构搜索的表现预测压缩方法,属于神经网络压缩与加速技术领域,通过在图像分类训练集中进行搜索训练,通过softmax函数将搜索空间松弛为连续,采用放射缩放变换在保证优化结果不变的情况下,解决内点优化问题,以提高网络模型的鲁棒性,产生梯度优化网络模型;之后以准确率为基准对梯度优化网络模型进行训练,根据表现情况进行排序,并与图像分类验证集进行比较以评估网络性能,迭代更新梯度优化网络结构,以减少训练时间并提高网络精度,最后对所得梯度优化网络结构进行离散化微调和剪枝微调,从而在图像分类任务中实现轻量化网络结构的压缩。
-
公开(公告)号:CN114997175A
公开(公告)日:2022-09-02
申请号:CN202210529801.1
申请日:2022-05-16
Applicant: 电子科技大学
Abstract: 本发明公开了一种基于领域对抗训练的情感分析方法,属于自然语言处理技术领域。本发明所述方法主要包括以下步骤:数据预处理与文本表示,构建对抗训练网络,设定对抗网络的初始参数并迭代更新,利用完成训练的网络对目标域数据中的所有输入文字序列进行序列标注。本发明所述方法利用领域对抗训练达到了模型跨域学习的目标,采用半监督的学习方式,通过为目标域无标记数据设置伪标签,使得教师网络与学生网络的学习能力趋于一致,从而提高模型对共享特征的提取能力。本发明所述方法利用语义距离动态加权和注意力机制相结合的方式,提高模型对领域特有特征的提取能力,最终使得模型在跨域场景下能达到良好的细粒度情感分类效果。
-
公开(公告)号:CN110619385B
公开(公告)日:2022-07-29
申请号:CN201910820048.X
申请日:2019-08-31
Applicant: 电子科技大学
Abstract: 本发明公开了一种基于多级剪枝的结构化网络模型压缩加速方法,属于模型压缩加速技术领域。本发明包括如下步骤:获取预训练模型,训练得到初始完备网络模型;测量卷积层敏感度,通过控制变量获得各个卷积层的敏感度‑剪枝率曲线;按照敏感度次序从低到高进行单层剪枝,微调重训练网络模型;选取样本作为验证集,测量滤波器输出特征图的信息熵;根据输出熵大小次序进行迭代柔性剪枝,微调重训练网络模型;硬性剪枝,对网络模型进行重训练恢复网络性能,得到并保存轻量级模型。本发明可以在保持原有网络性能的前提下,对大规模卷积神经网络进行压缩,能够缩减网络的本地内存占用,减少运行时的浮点运算和显存占用,实现网络的轻量化。
-
公开(公告)号:CN119168882A
公开(公告)日:2024-12-20
申请号:CN202411196807.7
申请日:2024-08-29
Applicant: 电子科技大学长三角研究院(衢州)
Abstract: 本发明公开了一种可见光图像和红外图像的融合方法。该方法,包括:获取目标可见光图像和目标红外图像,将所述目标可见光图像和所述目标红外图像输入预先训练的图像融合模型中,以获得第一模型融合图像和第二模型融合图像;其中,所述图像融合模型包括与所述第一模型融合图像对应的第一融合网络和与所述第二模型融合图像对应的第二融合网络;根据所述第一模型融合图像和所述第二模型融合图像确定第三模型融合图像,将所述第一模型融合图像和所述第三模型融合图像进行叠加,得到目标融合图像,增强了融合图像中的关键信息,有利于在高光照和烟雾等恶劣条件下准确识别和定位目标。
-
-
-
-
-
-
-
-
-