-
公开(公告)号:CN117827145A
公开(公告)日:2024-04-05
申请号:CN202410240189.5
申请日:2024-03-04
Applicant: 浪潮(北京)电子信息产业有限公司
Abstract: 本发明涉及计算机技术领域,公开了一种浮点运算装置及其处理方法、信息处理系统、硬件加速器,包括:浮点数据分析模块对浮点操作数进行分类分析,得到数据分析结果;异常结果生成模块在数据分析结果未满足当前计算模式下的算法规则时,直接生成相应结果;浮点数据归一化模块在数据分析结果满足当前计算模式下的算法规则时,将当前计算模式下得到的浮点数据或定点数据进行归一化处理,得到任意浮点格式的归一化浮点数结果。上述装置支持不同类型浮点格式,支持浮点乘、加、指数、倒数、开平方根倒数,开平方根等多种高性能计算模式,减少了冗余工作量,提高了整体效率,在保证精度的前提下能够减少硬件资源面积,且适用范围广。
-
公开(公告)号:CN117033275B
公开(公告)日:2024-02-09
申请号:CN202311279391.0
申请日:2023-10-07
Applicant: 浪潮(北京)电子信息产业有限公司
IPC: G06F13/28
Abstract: 本发明公开了计算机技术领域内的一种加速卡间的DMA方法、装置、加速卡、加速平台及介质。本发明中的第一加速卡能够主动进行DMA的发起,并根据自身里记录的数据目的端的第二加速卡的内存空闲信息,直接把数据以DMA方式写入第二加速卡的内存,无需在DMA之前询问第二加速卡的内存空闲地址,也无需等第二加速卡进行DMA发起。该方案实现了:不同加速卡在硬件层面的直接DMA写操作,解决了加速卡间的DMA操作问题。
-
公开(公告)号:CN111736986B
公开(公告)日:2023-06-23
申请号:CN202010471493.2
申请日:2020-05-29
Applicant: 浪潮(北京)电子信息产业有限公司
IPC: G06F9/50 , G06F15/16 , G06N3/0464 , G06N3/063
Abstract: 本申请公开了一种深度学习模型的FPGA加速执行方法,包括:FPGA云服务器根据模型计算量和FPGA板卡计算量对待执行的深度学习模型进行拆分处理,得到深度学习模型中所有卷积核的拆分配置数据;根据拆分配置数据将深度学习模型中的卷积核部署至对应的FPGA板卡,得到多个待执行FPGA板卡;控制多个待执行FPGA板卡执行深度学习模型计算操作。通过将深度学习模型中的所有卷积核拆分至对应的FPGA板卡中进行计算操作,实现将模型拆分计算,而不是在少数几个FPGA板卡中加载过多的计算功能,避免产生硬件浪费,提高硬件性能的利用率。本申请还公开了一种深度学习模型的FPGA加速执行装置、服务器以及计算机可读存储介质,具有以上有益效果。
-
公开(公告)号:CN117608838A
公开(公告)日:2024-02-27
申请号:CN202311603350.2
申请日:2023-11-28
Applicant: 浪潮(北京)电子信息产业有限公司
Abstract: 本发明公开了一种数据处理系统及方法,涉及数据处理领域,为解决将数据存储和计算卸载到中央处理器上实现会占用中央处理器资源,该数据处理系统包括主机、至少一个设有高速计算链路接口的存储设备、以及至少一个设有高速计算链路接口的计算设备,其中,主机,用于获取训练数据,将训练数据写入存储设备;计算设备,用于从存储设备中获取训练数据及模型权重数据,基于训练数据及模型权重数据得到本地权重数据,并将本地权重数据写入存储设备;存储设备,用于存储训练数据及本地权重数据,基于所有本地权重数据得到模型权重数据并存储。本发明能够减少对主机的中央处理器的资源的占用,节省了计算设备的缓存空间、算力和带宽。
-
公开(公告)号:CN117033275A
公开(公告)日:2023-11-10
申请号:CN202311279391.0
申请日:2023-10-07
Applicant: 浪潮(北京)电子信息产业有限公司
IPC: G06F13/28
Abstract: 本发明公开了计算机技术领域内的一种加速卡间的DMA方法、装置、加速卡、加速平台及介质。本发明中的第一加速卡能够主动进行DMA的发起,并根据自身里记录的数据目的端的第二加速卡的内存空闲信息,直接把数据以DMA方式写入第二加速卡的内存,无需在DMA之前询问第二加速卡的内存空闲地址,也无需等第二加速卡进行DMA发起。该方案实现了:不同加速卡在硬件层面的直接DMA写操作,解决了加速卡间的DMA操作问题。
-
-
-
-