一种可组装的分布式计算和存储系统及其构造方法

    公开(公告)号:CN112804297B

    公开(公告)日:2022-08-19

    申请号:CN202011599244.8

    申请日:2020-12-30

    Abstract: 本发明公开了一种可组装的分布式计算和存储系统及其构造方法,包括:一个以上域服务器,用于计算服务或存储服务;网络交换单元,负责将域服务器连接形成分布式计算和存储系统;域服务器包括:对象处理单元,采用多核构造处理器线程组,负责域服务器内网络连接,并通过高级语言编程提供管理控制和数据处理;计算单元,提供计算能力;内存单元,用于动态随机存储器;持久化内存单元,用于非易失内存;存储单元,提供持久化存储;多个计算单元、多个内存单元、多个非易失内存单元、多个存储单元,分别通过网络交换单元连接形成计算池、内存池、非易失内存池、存储池;一个或多个域服务器通过网络交换单元连接形成分布式计算和存储系统。

    一种智能选择编译加速库的深度学习编译优化方法

    公开(公告)号:CN113031966A

    公开(公告)日:2021-06-25

    申请号:CN202110551554.0

    申请日:2021-05-20

    Abstract: 本发明公开了一种智能选择编译加速库的深度学习编译优化方法,目的是通过在深度学习编译器中加入编译加速库,结合深度学习编译器与编译加速库双方各自的优点,进一步提高深度神经网络的推理速度。该方法首先在深度学习编译器中加入各种算子针对编译加速库的翻译方法,将各种算子自动转换为编译加速库可以识别的形式。其次提出一种在深度学习编译器中调用编译加速库的方法,实现通过编译加速库执行各种算子。然后在深度学习编译器算子优化阶段将优化效果与编译加速库进行比较,进行最优方案选择。最后提出一种深度学习编译器中结合编译加速库的代码生成方法,产生优化后的可执行代码,实现对深度神经网络的进一步优化。

    一种用于深度学习编译器中探索优化空间的加速方法

    公开(公告)号:CN112579063A

    公开(公告)日:2021-03-30

    申请号:CN202110223874.3

    申请日:2021-03-01

    Abstract: 本发明公开了一种用于深度学习编译器中探索优化空间的加速方法,目的是通过编译技术优化神经网络效果,并大幅减少编译器探索算子优化空间的耗时。该方法首先将神经网络抽象成计算图的形式。其次对计算图进行图优化,并为优化后计算图中的每个算子定义优化空间。然后基于包含优化空间信息的算子,提出一种优化空间相似度计算方法。最后提出一种基于相似度的算子状态空间探索方法,基于相似度对算子进行聚类,对每一个聚类中的核心算子进行全空间探索,同类的其余算子在核心算子最优方案中进行探索,确定整个神经网络每个算子的优化方案。

    一种内存中并行化计算的方法及装置

    公开(公告)号:CN111459552B

    公开(公告)日:2020-10-13

    申请号:CN202010545142.1

    申请日:2020-06-16

    Abstract: 本发明公开了一种并行化存内计算的方法及装置,该方法利用现有DRAM内存存储电路的充放电特性实现了并行化的加法计算,并且通过优化数据存储及计算流程,进一步提高了数据并行计算的效率。本发明使得数据存储与计算都可以在DRAM中实现,可大大地缓解内存墙问题,同时不需要依赖新型非易失存储器件,可降低内存计算的复杂度和成本。

    一种并行化存内计算的方法及装置

    公开(公告)号:CN111459552A

    公开(公告)日:2020-07-28

    申请号:CN202010545142.1

    申请日:2020-06-16

    Abstract: 本发明公开了一种并行化存内计算的方法及装置,该方法利用现有DRAM内存存储电路的充放电特性实现了并行化的加法计算,并且通过优化数据存储及计算流程,进一步提高了数据并行计算的效率。本发明使得数据存储与计算都可以在DRAM中实现,可大大地缓解内存墙问题,同时不需要依赖新型非易失存储器件,可降低内存计算的复杂度和成本。

    一种基于人脑记忆机制的深度神经网络训练数据采样方法

    公开(公告)号:CN112418422B

    公开(公告)日:2022-05-27

    申请号:CN202011307776.X

    申请日:2020-11-20

    Abstract: 本发明公开了一种基于人脑记忆机制的深度神经网络训练数据采样方法,包括如下步骤:S1,在初始训练周期,设置下一轮要训练的序列为整个训练集;S2,将训练序列中包含的数据根据批大小打包为多个批,放入神经网络进行训练,并获得样本的训练损失值;S3,根据损失值将样本序列划分为困难、中间、简单三种类型;S4,整个训练序列的样本都增加一个基本时钟,中间和简单的样本需要根据倒计时等待函数分别计算样本的额外增加的时钟数;S5,整个训练集的样本都减少一个时钟数,将时钟数为0的样本放入下一轮将要训练的序列之中;S6,重复步骤2‑5,直到神经网络收敛或者训练周期数结束。

    基于Tensor访问的深度学习内存管理方法及系统

    公开(公告)号:CN112306697B

    公开(公告)日:2021-04-27

    申请号:CN202011619848.4

    申请日:2020-12-31

    Abstract: 本发明提供了一种基于Tensor访问的深度学习内存管理方法,该方法通过收集神经网络的执行信息和硬件平台的性能信息获得相关决策下的内存空间开销和时间开销,并建立整数线性规划模型,通过在约束条件下优化求解最优的Tensor调度策略,从而解决内存不足问题的同时获得较高的深度学习训练性能。相比于现有技术,相同的硬件性能下,本发明可以实现更大的batchsize的神经网络训练。本发明同时还提出了一种内存管理系统,包括profile模块、决策模块和执行模块;该系统可直接添加在深度学习框架上,使用方便。

    支持深度神经网络推理加速的异构存算融合系统及方法

    公开(公告)号:CN112149816B

    公开(公告)日:2021-02-12

    申请号:CN202011340107.2

    申请日:2020-11-25

    Abstract: 本发明公开了一种支持深度神经网络推理加速的异构存算融合系统及方法,包括:主机处理器,用于控制和管理整个异构存算融合系统;非易失内存模块,与所述主机处理器相连,用于神经网络处理;3D堆叠内存模块,与所述主机处理器相连,用于神经网络处理;网络模块,与所述主机处理器相连,用于与外部主机连接;配置电路,与所述主机处理器相连,用于接收所述主机处理器的配置命令并控制电压发生器,也用于接收所述主机处理器的配置命令并配置3D堆叠内存模块;电压发生器,分别与所述非易失内存模块和配置电路相连,用于接收所述配置电路的控制命令,对所述非易失内存模块施加外部激励,调节其电导状态。

Patent Agency Ranking