-
公开(公告)号:CN115526302A
公开(公告)日:2022-12-27
申请号:CN202210999968.4
申请日:2022-08-19
Applicant: 北京应用物理与计算数学研究所
IPC: G06N3/063 , G06N3/04 , G06F15/163
Abstract: 本发明提供了一种基于异构多核处理器的多层神经网络计算方法及装置,涉及神经网络技术领域,该方法包括:将各从核的内存划分为计算区域和存储区域,获取神经网络参数,将神经网络参数分布式存储至各从核的存储区域中;控制从核从主内存中读取输入数据,并将输入数据存储至计算区域中;控制从核基于存储区域中存储的神经网络参数及输入数据在计算区域中进行神经网络计算,并将计算得到的输出数据存入主内存中。本发明通过将神经网络参数分布式存储至从核中,无需在每层神经网络计算时与主内存进行数据交互,大大减少了从核与主内存的数据交互次数,减少了从核与主内存的数据交互时间,节约了计算时间,提升了计算效率。
-
公开(公告)号:CN115526302B
公开(公告)日:2023-07-25
申请号:CN202210999968.4
申请日:2022-08-19
Applicant: 北京应用物理与计算数学研究所
IPC: G06N3/063 , G06N3/0464 , G06F15/163
Abstract: 本发明提供了一种基于异构多核处理器的多层神经网络计算方法及装置,涉及神经网络技术领域,该方法包括:将各从核的内存划分为计算区域和存储区域,获取神经网络参数,将神经网络参数分布式存储至各从核的存储区域中;控制从核从主内存中读取输入数据,并将输入数据存储至计算区域中;控制从核基于存储区域中存储的神经网络参数及输入数据在计算区域中进行神经网络计算,并将计算得到的输出数据存入主内存中。本发明通过将神经网络参数分布式存储至从核中,无需在每层神经网络计算时与主内存进行数据交互,大大减少了从核与主内存的数据交互次数,减少了从核与主内存的数据交互时间,节约了计算时间,提升了计算效率。
-