-
公开(公告)号:CN112015673A
公开(公告)日:2020-12-01
申请号:CN202011137494.X
申请日:2020-10-22
IPC: G06F12/02
Abstract: 本发明涉及计算机内存计算领域,具体涉及一种基于混合存储的存内计算方法与装置,该方法包括:首先通过混合存储区将数据进行混合存储,然后利用数据转存区通过字线驱动器和控制器对某一指定行的数据进行移位操作,最后基于混合存储和移位操作进行数据的乘法计算。本发明结合非易失存储与内存计算,一方面计算数据以纳秒级的速度从非易失器件中获得,特别是对于深度神经网络推理这种场景,可将模型参数事先存放于非易失存储区,计算时能减少了数据访问的时间,提高了系统性能;另一方面通过改进电路操作流程,减少了不必要的数据搬移时间,使得移位时间也能缩短至纳秒级别,提升了对于乘法计算这种有大量移位操作的计算效率,提高了系统性能。
-
公开(公告)号:CN117349289A
公开(公告)日:2024-01-05
申请号:CN202311387848.X
申请日:2023-10-24
Applicant: 浙江大学
IPC: G06F16/22 , G06F16/901 , G06F16/2458
Abstract: 本发明公开了一种基于候选顶点合并技术的极大二分团枚举方法,获取二分图G(U,V,E),其中U和V是二分图中的两个不相交顶点集,E是边集;有选择地对顶点集U和V进行互换,并有选择地对顶点进行重排序;以U,V为函数初始参数,递归调用计算函数;输出所有极大二分团或极大二分团的计数结果给用户。本发明利用枚举树节点内候选顶点可合并的特性,减少了计算过程中的无效分支与无效计算,提升了极大二分团枚举的效率。同时,本发明所提出的顶点合并技术适用于其他图枚举算法,能够提升如极大团枚举、子图挖掘等算法的计算效率。
-
公开(公告)号:CN117349287A
公开(公告)日:2024-01-05
申请号:CN202311385166.5
申请日:2023-10-24
Applicant: 浙江大学
IPC: G06F16/22 , G06F16/901
Abstract: 本发明公开了一种基于混合存储的极大二分团枚举方法,获取二分图G(U,V,E),其中U和V是二分图中的两个不相交顶点集,E是边集;设置阈值t,用于决定运行时子图的存储方式;如果U内顶点数量大于t,则G0采用邻接表存储;否则,G0采用位图存储;以U,V,G0为函数初始参数,递归调用BicliqueFind(L,R,C,G)函数;输出所有极大二分团或极大二分团的计数结果给用户。本发明采用混合存储方法,既保留了邻接表存储的低存储空间开销特性,又结合了位图存储计算高效的特点。针对二分团枚举过程中大量仅需要在小图上进行计算的任务,本发明通过动态构建子位图,极大地提升了二分团枚举任务的执行速度。
-
公开(公告)号:CN115510279A
公开(公告)日:2022-12-23
申请号:CN202211123946.8
申请日:2022-09-15
Applicant: 浙江大学
IPC: G06F16/901 , G06F3/06
Abstract: 本发明提出了一种NUMA友好的持久内存图访存方法及装置,本发明通过NUMA感知的分离图存储方案,将不同类别的图数据存放在不同NUMA结点的持久内存上,然后通过一种基于CPU绑定的图更新和图查询方案,将图计算对PMEM的写入线程和读取线程都绑定到本地的CPU上,从而避免跨NUMA的远程PMEM访问,提升图计算系统的性能。
-
公开(公告)号:CN114546662A
公开(公告)日:2022-05-27
申请号:CN202210194862.7
申请日:2022-03-01
Applicant: 浙江大学
Abstract: 本发明提供了一种基于日志结构的持久性内存的内存块元数据管理方法及装置,本发明将持久性内存的内存块元数据存入DRAM中,并将内存块元数据的核心数据根据内存块的状态更新以日志条目的形式追加写入到持久性内存的日志文件中;所述日志文件中划分成多个日志组存储日志条目。同时在DRAM中保存日志组元数据,所述日志组元数据为指明日志组分配情况的位图bitmap,通过红黑树对已分配的日志组元数据进行管理,并将被释放的日志组元数据通过链表进行管理。本发明通过修改元数据的布局模式,使得持久性内存元数据的分布更具有局部性,减少小规模数据的随机写入,提高持久性内存的分配性能。
-
公开(公告)号:CN114462590A
公开(公告)日:2022-05-10
申请号:CN202111520870.8
申请日:2021-12-13
IPC: G06N3/08 , G06F16/2455
Abstract: 本发明提供了一种重要性感知的深度学习数据缓存管理方法和系统,本发明将缓存分为两个区域分别存储划分的重要样本和不重要样本,同时设置重要性感知的缓存管理模块和动态打包模块分别应答数据请求并对缓存模块的两个缓存区域进行缓存管理,重要性感知的缓存管理模块把越重要的样本优先缓存在内存中,当缓存满的时候,重要性低的样本先逐出,可以提高缓存命中率。对不重要样本使用异步线程使用异步线程进行打包和缓存,同时当不重要的样本缓存缺失时,使用其他的不重要的样本进行替换。从而保证训练样本的多样性且不引入额外开销。与现有技术相比,本发明对模型训练的精度影响可以忽略不计,并且使DNN训练速度是原来的3倍。
-
公开(公告)号:CN113487025A
公开(公告)日:2021-10-08
申请号:CN202110749499.6
申请日:2021-07-02
Applicant: 浙江大学
Abstract: 本发明提供了一种面向神经网络检查点数据的智能压缩存储方法,所述神经网络检查点数据包括权重浮点数数据和优化器浮点数数据;该方法具体为:利用增量压缩方法对神经网络每轮训练后的权重浮点数数据进行压缩并存储;和/或利用索引值映射代替神经网络每轮训练后的部分或全部优化器浮点数数据的前n位后进行存储。其中,索引值的位数小于n。本发明利用深度学习检查点数据的特征并结合模型训练流程,设计了智能压缩方法与系统,对检查点不同类别数据高效压缩,从而有效提高了存储系统的存储量和寿命。
-
公开(公告)号:CN112862111A
公开(公告)日:2021-05-28
申请号:CN202110450988.1
申请日:2021-04-26
IPC: G06N20/00
Abstract: 本发明涉及分布式计算系统领域,具体涉及一种加速分布式机器学习梯度汇聚的方法和装置,该装置包括:包括梯度汇聚器和与梯度汇聚器连接的工作节点,所述工作节点用于提供梯度数据至梯度汇聚器和接收梯度汇聚器的返还数据;所述梯度汇聚器,包括:输入接口和输入队列模块、接收仲裁模块、解析查找模块、输出队列模块、聚合模块、存储器、输出接口模块和配置接口模块,其中的聚合模块包括:控制模块、解析模块、梯度数据块信息表、梯度数据块缓存器、计算模块和网络组包输出模块。本发明支持大型机器学习模型的训练,存储器可以存储大量梯度数据,同时所需要的缓存空间可以很小,降低了系统缓存的要求,提高了系统整体性能。
-
公开(公告)号:CN112598129A
公开(公告)日:2021-04-02
申请号:CN202110236303.3
申请日:2021-03-03
IPC: G06N3/08
Abstract: 本发明提出了一种基于ReRAM神经网络加速器的可调硬件感知的剪枝和映射框架,该剪枝和映射框架包括DDPG代理器和ReRAM神经网络加速器;所述DDPG代理器由行为决策模块Actor和评判模块Critic组成,其中,行为决策模块Actor用于对神经网络做出剪枝决策;ReRAM神经网络加速器用于映射行为决策模块Actor产生的剪枝决策下形成的模型,并将此剪枝决策下的模型映射的性能参数作为信号反馈给评判模块Critic;所述性能参数包括模拟器的能耗、延迟和模型准确率;评判模块Critic根据反馈的性能参数更新奖励函数值,并指导行为决策模块Actor下一阶段的剪枝决策;本发明方法利用强化学习DDPG代理来做出与硬件和用户需求最匹配、最高效的剪枝方案,在保证准确率的同时,提升了硬件上延迟性能和能耗性能。
-
公开(公告)号:CN119536635A
公开(公告)日:2025-02-28
申请号:CN202411476146.3
申请日:2024-10-22
Applicant: 浙江大学
IPC: G06F3/06
Abstract: 本发明公开了一种重要性感知的KV缓存管理系统及方法,旨在解决大模型推理过程中由于传统的K、V缓存管理策略效率低下导致的推理时延长,吞吐率低的问题。本发明在K、V缓存的管理策略中引入重要性,通过追踪K、V的重要性,并结合K、V被读取的频率,用重要性分数作为缓存管理的依据,提高了存储中的相对快速介质上的缓存命中率,减少了读取K、V的时间,降低了推理系统的整体时延,提高了吞吐量。本发明适用于有共享前缀的基于重要性的大模型推理任务,能够在维持模型推理精度的同时,缩短输出时延,提升吞吐量约两倍。
-
-
-
-
-
-
-
-
-