-
公开(公告)号:CN119067186B
公开(公告)日:2025-01-24
申请号:CN202411548223.1
申请日:2024-11-01
Applicant: 南京邮电大学
IPC: G06N3/063 , G06N3/0499 , G06F15/78
Abstract: 本发明属于深度神经网络技术领域,公开了一种针对多芯粒的存内计算数模混合DNN加速器的优化方法,包括:步骤1、模型预处理:对进行计算的DNN模型进行预处理,根据多芯粒的存内计算数模混合DNN加速器中的数字芯粒和存内运算芯粒确认深度神经网络DNN模型每一层的计算方式;步骤2、任务图谱的构建与优化:根据计算资源和存储资源的资源约束,将DNN模型的任务负载划分为计算和存储任务,构成任务图谱;步骤3、将步骤2构成的任务图谱转换为实际运算的执行图谱,并对执行图谱进行优化。本发明可以有效减少单个推理的延迟,同时提高整体运算的吞吐量,减少整体通信量,减少片上网络拥塞,提高运算性能。
-
公开(公告)号:CN119067186A
公开(公告)日:2024-12-03
申请号:CN202411548223.1
申请日:2024-11-01
Applicant: 南京邮电大学
IPC: G06N3/063 , G06N3/0499 , G06F15/78
Abstract: 本发明属于深度神经网络技术领域,公开了一种针对多芯粒的存内计算数模混合DNN加速器的优化方法,包括:步骤1、模型预处理:对进行计算的DNN模型进行预处理,根据多芯粒的存内计算数模混合DNN加速器中的数字芯粒和存内运算芯粒确认深度神经网络DNN模型每一层的计算方式;步骤2、任务图谱的构建与优化:根据计算资源和存储资源的资源约束,将DNN模型的任务负载划分为计算和存储任务,构成任务图谱;步骤3、将步骤2构成的任务图谱转换为实际运算的执行图谱,并对执行图谱进行优化。本发明可以有效减少单个推理的延迟,同时提高整体运算的吞吐量,减少整体通信量,减少片上网络拥塞,提高运算性能。
-