基于可编程逻辑器件的板卡电路和计算机设备

    公开(公告)号:CN107102962B

    公开(公告)日:2019-10-18

    申请号:CN201710289365.4

    申请日:2017-04-27

    Abstract: 本申请提出一种基于可编程逻辑器件的板卡电路和计算机设备,上述基于可编程逻辑器件的板卡电路,包括:子板、母板和散热板;所述子板的背面设置有可编程逻辑器件和高速连接器,所述子板的正面设置有存储芯片,所述子板通过所述高速连接器与所述母板进行通信;所述子板安装在所述母板的上方,所述散热板安装在所述子板与所述母板之间,所述子板的可编程逻辑器件通过所述散热板进行散热。本申请在半长半高和单槽厚度的板卡尺寸下实现了高密度FPGA、百瓦级供电模块、4通道高速内存和光通信接口布局,能够很好地满足云计算、大数据和人工智能加速等应用场景的应用需求。并且,上述板卡电路尺寸小,对主机空间的适应性强。

    面向深度学习业务的加速装置及方法

    公开(公告)号:CN106156851B

    公开(公告)日:2019-04-05

    申请号:CN201610483365.3

    申请日:2016-06-24

    Abstract: 本发明公开了一种面向深度学习业务的加速装置,用于对服务器中的待处理数据进行深度学习计算,包括:设置于服务器端的网卡、与所述服务器通过总线连接的计算控制模块、以及第一存储器和第二存储器;所述计算控制模块为可编程逻辑器件,包括:控制单元、数据存储单元、逻辑存储单元、以及分别与所述网卡、第一存储器和第二存储器通信的总线接口、第一通信接口和第二通信接口;所述逻辑存储单元用于存储深度学习控制逻辑;所述第一存储器用于存储网络各层的权重数据和偏置数据。利用本发明,可以有效提高计算效率,提升性能功耗比。

    语音合成中文本分词方法及系统

    公开(公告)号:CN103942190B

    公开(公告)日:2017-08-25

    申请号:CN201410153908.6

    申请日:2014-04-16

    Abstract: 本发明公开了一种文本分词方法及系统,所述方法包括:预先建立与待处理文本相对应的绑定词典,并绑定所述文本和所述绑定词典,所述绑定词典中的词包括所述文本中未收录在通用词典中的未登录词;将所述文本与所述通用词典中的词进行匹配,得到准分词结果;根据所述绑定词典中的词对所述准分词结果进行修正。采用本发明所述的文本分词方法及系统,通过增加绑定词典,为实现给不同的文本定制相应的词典资源提供了很大的自由度,在不需要修改通用词典情况下,实现文本分析结果的优化。

    异构计算中的并行加速方法及系统

    公开(公告)号:CN106776014A

    公开(公告)日:2017-05-31

    申请号:CN201611070675.9

    申请日:2016-11-29

    Abstract: 本发明公开了一种异构计算中的并行加速方法及系统,该方法包括:预先根据GPU的个数确定GPU之间数据传输的拓扑结构;所述拓扑结构中的各GPU获取当前任务,并对所述当前任务中的数据进行计算,得到对应当前任务的计算结果;各GPU将自己得到的对应当前任务的计算结果分享给所述拓扑结构中的所有其它GPU;各GPU得到所述拓扑结构中的所有其它GPU的计算结果后,开始执行下一任务。利用本发明,可以在提高GPU并行计算能力的同时,降低各GPU节点的带宽需求。

    一种文本修正方法及装置
    46.
    发明公开

    公开(公告)号:CN106250364A

    公开(公告)日:2016-12-21

    申请号:CN201610573610.X

    申请日:2016-07-20

    Abstract: 本发明实施例提供了一种文本修正方法及装置,其中方法包括:获取待修正的文本数据;获取正确词,所述正确词用于替换所述文本数据中与所述正确词对应的错误词;根据所述正确词找到并替换所述文本数据中的所述错误词。在本发明中,当发现文本中出现文字错误时,用户无需给出任何错误词,只需输入正确词即可,系统即自动按照正确词去查找各个对应的错误词。例如只需要输入正确词“酱紫”,无需指出对应的错误词是“绛紫”还是“降子”,即可自动按照正确词去寻找与之相对应的各个错误词。因为用户只需要给出正确词即可,无需一一指出有哪些错误词,大大提高了修正效率,且还可以避免因为用户人工查找而可能导致的错误词的遗漏,提高了修正的准确率。

    模型运行方法、装置、设备、介质及产品

    公开(公告)号:CN119204125A

    公开(公告)日:2024-12-27

    申请号:CN202411242743.X

    申请日:2024-09-05

    Abstract: 本申请提出一种模型运行方法、装置、设备、介质及产品,该方法通过确定硬件设备的剩余存储资源;通过将硬件设备的剩余存储资源与量化模型所需的存储资源进行比较,确定硬件设备能够运行的目标模型的类型,目标模型的类型为第一量化模型或第二量化模型,第一量化模型及其对应的第一量化系数存储在内存中,第一量化参数用于对第一量化模型进行解量化得到第二量化模型,第二量化模型对应的模型参数的位宽大于第一量化模型对应的模型参数的位宽;根据目标模型的类型获取相应的目标模型,并由硬件设备运行目标模型执行目标任务。本申请能够实现占用内存小且推理准确度高的效果。

    任务处理方法、系统和相关装置
    48.
    发明公开

    公开(公告)号:CN119167101A

    公开(公告)日:2024-12-20

    申请号:CN202411177288.X

    申请日:2024-08-26

    Abstract: 本申请公开了一种任务处理方法、系统和相关装置,该方法包括:获取由至少一个目标任务触发的任务处理指令;将所述任务处理指令输入至智能分析模型,得到所述智能分析模型输出的与每个目标任务匹配的处理内容;其中,所述智能分析模型包括模型基础网络以及与所述模型基础网络并列的至少一个目标调节子网络,所述模型基础网络与调度模块耦接,所述调度模块用于从多个训练后的候选参数集中选取与目标任务匹配的目标参数集以构建所述目标调节子网络。通过上述方式,本申请能够提高任务处理的效率。

    问答交互方法及相关装置、电子设备和存储介质

    公开(公告)号:CN118484525B

    公开(公告)日:2024-10-29

    申请号:CN202410947840.2

    申请日:2024-07-16

    Abstract: 本申请公开了一种问答交互方法及相关装置、电子设备和存储介质,其中,问答交互方法包括:获取用户在当前轮次输入的第一语句;调用GPU计算资源处理第一语句,得到当前轮次中当前注意力特征,将外部存储空间中历史轮次的历史注意力特征,调取至GPU显存空间;调用GPU计算资源处理当前注意力特征和历史注意力特征,得到第二语句;按照生成时间由新到旧的顺序调取GPU显存空间中键特征和值特征,并写回至外部存储空间,以用于当前轮次的下一轮次。上述方案,能够提升计算资源的利用率和吐字效率,并尽可能地降低首响延迟。此外,通过异构缓存,能够大大缓解保存历史注意力特征对于GPU显存空间的需求压力,特别是在长文本的交互场景下。

    一种语言模型训练方法及相关装置

    公开(公告)号:CN118195033B

    公开(公告)日:2024-08-23

    申请号:CN202410623693.3

    申请日:2024-05-20

    Abstract: 本申请公开了一种语言模型训练方法及相关装置,涉及模型训练技术领域,训练方法包括:将语言模型部署于多个计算设备上,每个计算设备上部署语言模型的一个或多个层;获取训练样本集,训练样本集包括从训练序列集中获取的A个长度为S的训练序列;对训练样本集进行划分,得到多个训练样本子集,每个训练样本子集包括B个长度为S的训练序列,B小于A;对多个训练样本子集分别在序列维度进行切分,得到多个训练样本子集分别对应的子序列块集;利用多个训练样本子集分别对应的子序列块集中的各子序列块,采用流水并行的训练方式,控制多个计算设备进行模型训练。本申请公开的语言模型训练方法具有较低的内存需求和较低的流水空泡率。

Patent Agency Ranking