-
公开(公告)号:CN117649568A
公开(公告)日:2024-03-05
申请号:CN202410128337.4
申请日:2024-01-30
Applicant: 之江实验室
IPC: G06V10/764 , G06V10/762 , G06V10/74 , G06V10/82 , G06N3/0464 , G06N3/048 , G06N3/082
Abstract: 在本说明书提供的一种用于图像分类卷积神经网络的网络压缩方法及装置中,通过获取训练完成的图像分类卷积神经网络以及输入图像,将输入图像输入该图像分类卷积神经网络中,确定各节点的参数以及各节点输出的该输入图像的激活特征,针对每一网络层,根据该网络层的各节点的参数和激活特征,确定核心参数和核心激活特征,并得到参数聚类结果和激活特征聚类结果,进而确定综合聚类结果,根据该综合聚类结果对该网络层进行剪枝。通过结合参数聚类结果和激活特征聚类结果,确定综合聚类结果,综合考虑了图像分类卷积神经网络的参数相似性和激活模式,考虑更全面,有效地减少了图像分类卷积神经网络的复杂性。
-
公开(公告)号:CN117195997B
公开(公告)日:2024-03-01
申请号:CN202311464150.3
申请日:2023-11-06
Applicant: 之江实验室
IPC: G06N3/08 , G06F18/214 , G06F3/06
Abstract: 本说明书公开了一种模型训练方法、装置、存储介质及电子设备,在此方法中,待训练模型部署在本地节点的计算区中,并在本地节点中部署高速缓存区以及在计算区中部署数据生成模型。在实际模型训练过程中,将训练所需要的目标数据缓存在高速缓存区中,以便计算区从高速缓存区直接进行数据读取,来进行模型训练,若没有读取到数据,则通过数据生成模型根据索引值生成的目标数据,进一步进行模型训练,并在模型训练过程中,保证模型准确度的情况下,对模型进行模型压缩,来减少模型参量。通过减少对存储区的数据访问次数以及对模型进行模型压缩,从而在一定程度上提高模型训练效率和减少存储资源浪费。(56)对比文件Cedric Spire et al..Learning in theAbsence of Training Data—A GalacticApplication《.International Conference onBayesian Statistics in Action》.2019,第43-51页.王丽等.面向模型并行训练的模型拆分策略自动生成方法《.计算机工程与科学》.2020,第42卷(第09期),第1529-1537页.
-
公开(公告)号:CN117130693B
公开(公告)日:2024-02-13
申请号:CN202311397785.6
申请日:2023-10-26
Applicant: 之江实验室
Abstract: 本申请涉及一种张量卸载方法、装置、计算机设备及存储介质。所述方法包括:获取张量特征信息,所述张量特征信息包括待训练模型每层的显存容量需求、计算间隔以及计算延迟信息;基于预设卸载策略和所述显存容量需求确定显存约束条件,基于所述预设卸载策略和计算间隔确定卸载时间约束条件,所述预设卸载策略包括主存卸载和重计算卸载;基于所述显存约束条件和卸载时间约束条件筛选所述预设卸载策略,确定多个候选卸载策略;基于所述计算延迟信息确定每个候选卸载策略的额外计算延迟,基于所述额外计算延迟确定目标卸载策略,并基于所述目(56)对比文件卢海峰;顾春华;罗飞;丁炜超;杨婷;郑帅.基于深度强化学习的移动边缘计算任务卸载研究.计算机研究与发展.2020,(第07期),全文.马玮良;彭轩;熊倩;石宣化;金海.深度学习中的内存管理问题研究综述.大数据.2020,(第04期),全文.
-
公开(公告)号:CN117077817B
公开(公告)日:2024-01-30
申请号:CN202311328295.0
申请日:2023-10-13
Applicant: 之江实验室
IPC: G06N20/00 , G06N3/098 , G06F18/214 , G06F18/23213 , G06F18/25 , G06F18/22
Abstract: 本说明书公开了一种基于标签分布的个性化联邦学习模型训练方法及装置。所述任务执行方法包括:根据获取到的目标模型的初始化模型参数,针对每个客户端,将初始化模型参数发送给该客户端,以使该客户端在本地部署待训练模型,并通过该客户端的本地数据,对待训练模型进行训练,并获取各客户端训练更新后的模型参数,以及每个客户端训练各自的待训练模型时所使用的本地数据的标签分布,以得到每个客户端对应的客户端簇。针对每个客户端,融合该客户端对应的客户端簇中包含的各客户端发送的更新后的模型参数,并将融合后参数下发给该客户端,以使该客户端根据所述融合后参数,对本地(56)对比文件CN 115577360 A,2023.01.06CN 116471286 A,2023.07.21CN 113033820 A,2021.06.25CN 114758784 A,2022.07.15WO 2022162677 A1,2022.08.04WO 2022111639 A1,2022.06.02Sarhad Arisdakessian 等.TowardsInstant Clustering Approach for FederatedLearning Client Selection《.2023International Conference on Computing,Networking and Communications (ICNC)》.2023,409-413.郑美光 等.基于互信息软聚类的个性化联邦学习算法《.计算机工程》.2023,第49卷(第8期),20-28.何杨.物联网中基于联邦学习的数据共享关键技术研究 《.中国优秀硕士学位论文全文数据库 信息科技辑》.2023,第2023年卷(第2期),I136-1293.Pu Tian 等.WSCC: A Weight-Similarity-Based Client Clustering Approach for Non-IID Federated Learning《.IEEE Internet ofThings Iournal》.2022,第9卷(第20期),20243-20256.
-
公开(公告)号:CN117370679A
公开(公告)日:2024-01-09
申请号:CN202311656866.3
申请日:2023-12-06
Applicant: 之江实验室
IPC: G06F16/9536 , G06F16/583 , G06F16/55 , G06F16/33 , G06F16/35 , G06F18/213 , G06F18/25 , G06F18/24 , G06F18/27 , G06N3/0455 , G06N3/048 , G06N3/08 , G06Q50/00
Abstract: 本发明公开了一种多模态双向蕴含社交网络虚假消息验证的方法及装置,通过图片和文本编码器对原始图片‑文本对进行特征提取,根据其蕴含关系构建对比学习;通过图片和文本编码器提取图片‑文本对所对应的特征;使用回归编码器对特征进行回归转换,对转换后得到的特征构建对比学习过程,使转换后的图片特征、文本特征分别回归到原始图片特征空间、原始文本特征空间内;通过训练好的编码器提取社交网络虚假消息中的图片‑文本对特征;将提取到的特征进行拼接和融合,随后经过分类函数得到虚假消息分类检测结果。通过本发明能充分挖掘两个模态数据之间的互补和蕴含信息,弥补单个模态信息表征不强的缺点,进而提高对社交网络信息的验证检测能力。
-
公开(公告)号:CN116992032B
公开(公告)日:2024-01-09
申请号:CN202311235665.6
申请日:2023-09-25
Applicant: 之江实验室
IPC: G06F16/35 , G06N3/0464 , G06N3/08
Abstract: 本申请涉及一种基于模型自动量化的文本分类方法、系统和存储介质,其中,上述方法包括:基于文本特征数据,得到初始神经网络;获取初始神经网络在目标卷积层的输入值和输出值;根据输入值,获取第一激活值;根据转移因子、第一激活值和第一权重值得到平滑系数;根据平滑系数,得到目标卷积层输出和初始神经网络在目标卷积层的输出值的均方误差集合,进而得到目标平滑系数;根据目标平滑系数对应得到目标神经网络模型,用于对待分类文本数据进行分类。通过本申请,解决了相关技术中存在的通过传统模型量化方法生成的文本分类神经网络模型的学习效果较差,导致文本分类的准确度较低问题,提高了文本分类的准确度。
-
公开(公告)号:CN116931955B
公开(公告)日:2024-01-09
申请号:CN202311202659.0
申请日:2023-09-18
Applicant: 之江实验室
Abstract: 本说明书公开了基于人工智能的编译器自动调优方法及装置,在此方法中,将程序输入到模型中得到各优化序列,编译器针对每个优化序列对程序进行编译运行得到实际运行时间,据此来调整智能体模型输出各优化序列的概率,使得训练后的智能体模型能够输出最优的优化序列,而编译器使用最优优化序列对待运行程序进行编译优化,从而在一定程度上提高运行效率和减少资源浪费。
-
公开(公告)号:CN117199026A
公开(公告)日:2023-12-08
申请号:CN202311472707.8
申请日:2023-11-07
Applicant: 之江实验室
IPC: H01L23/38 , H01L23/467 , H01L23/473 , H01L23/427
Abstract: 本公开是关于一种散热装置、散热控制方法及装置、电子设备。散热装置用于对晶圆级芯片进行散热,所述散热装置包括;第一基板;第二基板;半导体制冷器,所述半导体制冷器连接于所述第一基板和所述第二基板之间,所述半导体制冷器包括相互独立的多个散热单元;电源模块,所述电源模块与每一散热单元电连接,以用于为每一所述散热单元分别进行供电,并使得每一散热单元形成朝向所述第一基板的冷端和朝向所述第二基板的热端。
-
公开(公告)号:CN117075918A
公开(公告)日:2023-11-17
申请号:CN202311328294.6
申请日:2023-10-13
Applicant: 之江实验室
Abstract: 在一种模型部署方法、装置、存储介质及电子设备中,响应于待优化模型,生成计算逻辑单元以及对应的张量程序,并确定各所述计算逻辑单元对应的类型。然后,依次确定各计算逻辑单元之后计算逻辑单元为约束单元,根据该计算逻辑单元的张量程序以及约束单元的张量程序,确定数据排布优化转换方案。最后,将该计算逻辑单元的张量程序、约束单元的张量程序以及转换方案组合,得到候选策略,根据耗时从各候选策略中选择目标策略并根据目标策略并进行模型部署。通过获取全局最优部署策略,解决了优化后各层中间表示最优结果存在冲突的情况,提高了模型部署效率。
-
公开(公告)号:CN117057442A
公开(公告)日:2023-11-14
申请号:CN202311298511.1
申请日:2023-10-09
Applicant: 之江实验室
IPC: G06N20/00 , G06N3/048 , G06N3/0464 , G06N3/08 , G06V10/764 , G06V10/82
Abstract: 本说明书公开了一种基于联邦多任务学习的模型训练方法、装置及设备,中心服务器将各客户端对应的初始模型参数发送给各客户端,以使各客户端对基于各自的初始模型参数得到的模型进行训练,并将训练后的模型的优化模型参数返回给中心服务器,中心服务器根据各客户端对应的优化模型参数,确定各客户端对应的对优化模型参数进行加权的权重,并根据各客户端对应的对各优化模型参数进行加权的权重,确定适用于各客户端的模型参数,得到适用于各客户端的模型。由于各客户端的数据分布存在差异,因此本方法在模型的每次迭代训练过程中,根据权重确定各客户端的模型参数,使得各客户端得到更加泛化的模型的同时,可得到适用于各自数据分布的个性化模型。
-
-
-
-
-
-
-
-
-