-
公开(公告)号:CN116070474A
公开(公告)日:2023-05-05
申请号:CN202310363122.6
申请日:2023-04-07
Applicant: 之江实验室 , 浙江大学 , 无锡江南计算技术研究所
IPC: G06F30/20 , G06F17/15 , G06F111/04 , G06F111/08
Abstract: 本发明公开了一种面向AI浮点融合运算单元的验证激励产生方法,该方法包括:针对新型AI浮点融合运算单元进行分析,获取输入操作数数量、输入操作数数据格式、输入操作数数据类型并构建相应参数模型;结合参数模型构造输入操作数之间的约束表达式、输入操作数和中间结果的约束表达式、输入操作数和输出结果的约束表达式;分别对三种约束表达式进行求解生成一定数量的验证激励;将验证激励分别送入参考模型和待验证新型AI浮点融合运算单元中比较计算结果和记录覆盖率。通过该方法可以提高验证人员对新型AI浮点融合运算单元的验证效率和验证覆盖率。
-
公开(公告)号:CN115712583B
公开(公告)日:2023-04-18
申请号:CN202310023205.0
申请日:2023-01-09
Applicant: 之江实验室 , 无锡江南计算技术研究所
IPC: G06F12/0877 , G06F12/0884 , G06F12/0862 , G06F3/06 , G06N3/08
Abstract: 本发明公开了一种提升分布式缓存跨节点访问性能的方法及装置、介质。该方法依据轮次训练时预先生成的随机序列,在一个训练步骤中需要跨节点访问训练所需的样本时,查看当前步骤以及后续步骤所需的其他样本是否也存在于目标节点中,如果存在则将其一次性读取过来。本发明减少了训练过程中跨节点访问的次数带来的性能开销,有助于提升训练的总体性能。
-
公开(公告)号:CN116070474B
公开(公告)日:2023-07-07
申请号:CN202310363122.6
申请日:2023-04-07
Applicant: 之江实验室 , 浙江大学 , 无锡江南计算技术研究所
IPC: G06F30/20 , G06F17/15 , G06F111/04 , G06F111/08
Abstract: 本发明公开了一种面向AI浮点融合运算单元的验证激励产生方法,该方法包括:针对新型AI浮点融合运算单元进行分析,获取输入操作数数量、输入操作数数据格式、输入操作数数据类型并构建相应参数模型;结合参数模型构造输入操作数之间的约束表达式、输入操作数和中间结果的约束表达式、输入操作数和输出结果的约束表达式;分别对三种约束表达式进行求解生成一定数量的验证激励;将验证激励分别送入参考模型和待验证新型AI浮点融合运算单元中比较计算结果和记录覆盖率。通过该方法可以提高验证人员对新型AI浮点融合运算单元的验证效率和验证覆盖率。
-
公开(公告)号:CN115712583A
公开(公告)日:2023-02-24
申请号:CN202310023205.0
申请日:2023-01-09
Applicant: 之江实验室 , 无锡江南计算技术研究所
IPC: G06F12/0877 , G06F12/0884 , G06F12/0862 , G06F3/06 , G06N3/08
Abstract: 本发明公开了一种提升分布式缓存跨节点访问性能的方法及装置、介质。该方法依据轮次训练时预先生成的随机序列,在一个训练步骤中需要跨节点访问训练所需的样本时,查看当前步骤以及后续步骤所需的其他样本是否也存在于目标节点中,如果存在则将其一次性读取过来。本发明减少了训练过程中跨节点访问的次数带来的性能开销,有助于提升训练的总体性能。
-
公开(公告)号:CN116028127A
公开(公告)日:2023-04-28
申请号:CN202310163053.4
申请日:2023-02-14
Applicant: 浙江大学 , 无锡江南计算技术研究所
IPC: G06F9/4401 , G06F9/38
Abstract: 本发明公开了适用于多发射处理器指令重排的启发式方法,包括数据准备阶段根据指令集信息和功能单元信息获取各指令运行时参数,由指令间的数据依赖关系获取数据依赖图,对数据依赖图进行处理获得各指令的发射优先级,然后在模拟运行阶段保证指令发射过程满足并行发射指令条数、可用功能单元数量、流水线功能限制的约束条件。本发明同时还提供了适用于多发射处理器指令重排的装置。本发明解决了汇编代码在国产申威众核处理器不同代间迁移引起应用程序性能下降的指令并行优化的问题,一方面提升程序移植效率,另一方面相较于现有算法,攻克应用汇编程序库对从核双发射流水微结构的适配性难题。
-
公开(公告)号:CN117933410A
公开(公告)日:2024-04-26
申请号:CN202410322527.X
申请日:2024-03-20
Applicant: 之江实验室
Abstract: 在本说明书提供的一种量子计算的纠错方法、系统、存储介质及电子设备中,先获取集成芯片中量子芯片输出的计算结果,在集成芯片中,确定与量子芯片对应的存算一体芯片中储存的CSS码的逆矩阵,再根据量子芯片的计算结果,通过CSS码,确定计算结果的症状,然后根据CSS码的逆矩阵以及计算结果的症状,确定计算结果的噪声,最后根据计算结果的噪声,对计算结果纠正,通过在低功耗的集成芯片上运行的分布式算法,高效的得到了量子芯片的正确计算结果。
-
-
公开(公告)号:CN116501696A
公开(公告)日:2023-07-28
申请号:CN202310790835.0
申请日:2023-06-30
Applicant: 之江实验室
IPC: G06F16/13 , G06F16/172 , G06F16/901 , G06F18/214 , G06N20/00
Abstract: 本发明公开了一种适用于分布式深度学习训练预取缓存管理的方法和装置,包括:深度学习任务初始化时,初始化预取缓存空间;在深度学习训练任务每个轮次训练开始前,生成轮次的洗牌序列,按照该洗牌序列构建缓存索引;在深度学习训练任务进行训练时,根据缓存索引,从预取缓存空间中获取数据,若缓存未命中,则以存储节点为划分依据,到分布式存储中进行批量预取;在预取缓存空间已用容量达到指定阈值时启动缓存淘汰,淘汰掉缓存命中的数据。该方法和装置以存储节点为划分依据进行批量预取,减少了节点之间的通信次数,提高了通信效率,同时,对缓存命中的数据进行淘汰,使得缓存中都是即将命中的数据,提高了缓存命中率。
-
公开(公告)号:CN116302113A
公开(公告)日:2023-06-23
申请号:CN202310105230.3
申请日:2023-02-07
Applicant: 之江实验室
Abstract: 本发明提出一种面向数据流处理器的数据流图映射方法,包括:获取待执行任务的数据流图及其对应的功耗性能目标,并获取数据流处理器的计算单元总数以及多个数据流图映射策略;预估各数据流图映射策略下该数据流处理器执行该数据流图的功耗性能,从所有数据流图映射策略中选择满足该功耗性能目标的数据流图映射策略作为执行策略;将该数据流图中各个节点指令映射到该数据流处理器中计算单元,以执行该待执行任务,得到执行结果。本发明基于对数据流图的不同映射方案功耗性能的预估,以满足不同功耗性能目标的应用场景。
-
公开(公告)号:CN116136838A
公开(公告)日:2023-05-19
申请号:CN202310420302.3
申请日:2023-04-19
Applicant: 之江实验室
IPC: G06F16/172 , G06F16/11 , G06N20/00
Abstract: 本发明公开了一种深度学习训练数据集快速载入临时缓存方法和装置,该方法用于使用临时缓存对深度学习训练进行加速时,提升数据从远端共享存储载入本地高速存储模块的性能。本发明核心思想是根据共享存储IO特性以及计算节点并发规模,将数据集样本预先组织成合适大小的文件,以解决载入时的元数据热点问题,同时挖掘共享存储的大IO单元优势和高并发访问优势。方法包括三个模块:样本聚合模块,用于在共享存储中把原始样本文件重新组织成适合高速载入的文件;载入模块,用于在训练的初始化阶段把共享存储中经过重新组织的数据集文件加载到临时缓存;样本读取模块,用于在训练过程中从载入临时缓存的数据集中识别并读取训练样本。
-
-
-
-
-
-
-
-
-