协处理器的设备执行代码的处理方法、装置、设备及计算机可读存储介质

    公开(公告)号:CN110647360B

    公开(公告)日:2022-05-03

    申请号:CN201910769460.3

    申请日:2019-08-20

    Abstract: 本申请提供一种协处理器的设备执行代码的处理方法、装置、设备及计算机可读存储介质,涉及人工智能技术领域。本申请实施例通过对所获取的协处理器的计算任务的计算表达式进行分析处理,以获得所述计算表达式所对应的语法树,其中,所述语法树包括数据节点和操作节点,进而可以根据所述语法树,生成所述协处理器的设备执行代码,使得能够对所述设备执行代码进行编译处理,以供所述协处理器执行,无需开发人员人工编译协处理器上所运行的设备执行代码,而是能够自动编译协处理器上所运行的设备执行代码,操作简单,而且正确率高,从而提高了协处理器的设备执行代码编译的效率和可靠性。

    长短期记忆网络LSTM的训练系统、方法及电子设备

    公开(公告)号:CN111709513A

    公开(公告)日:2020-09-25

    申请号:CN201910202820.1

    申请日:2019-03-18

    Abstract: 本申请提出一种长短期记忆网络LSTM的训练系统及方法。其中,所述系统包括:主模型处理器,用于存储并维护LSTM的主模型,其中,LSTM的主模型包括第一至第M个网络层,M为正整数;以及第一至第N处理器,用于分别根据LSTM的主模型生成本地副模型,第一至第N处理器分别包括第一至第M个处理单元,第一至第M个处理单元分别用于训练第一至第M个网络层,其中,N为正整数,第一至第M个处理单元中至少一个处理单元为半精度计算模式,其他处理单元为单精度计算模式。由此,通过这种LSTM的训练系统,在LSTM模型训练中采用半精度/单精度浮点的混合数值表示,不仅提升了模型训练的速度,而且提高了模型的精度与性能。

    神经网络训练中的信息处理方法、设备与存储介质

    公开(公告)号:CN111126596A

    公开(公告)日:2020-05-08

    申请号:CN201911301032.4

    申请日:2019-12-17

    Inventor: 郑焕鑫 王桂彬

    Abstract: 本申请公开了一种神经网络训练中的信息处理方法、设备与存储介质,涉及人工智能技术领域。具体实现方案为:在神经网络训练中,获取网络结构的具有顺序关系的多个操作基于输入数据执行前向计算得到的目标结果;将所述目标结果存储在内存中;基于所述内存中存储的所述目标结果和所述多个操作的逆运算进行反向计算,以训练所述神经网络的网络结构。本申请的技术方案,能够克服现有技术的不足,在神经网络训练中节省内存的开销,同时还能够保证神经网络训练中的计算复杂度较低,从而能够有效地节省神经网络的训练时间,提高神经网络的训练效率。

    显存管理方法、装置、电子设备和计算机可读存储介质

    公开(公告)号:CN110688327A

    公开(公告)日:2020-01-14

    申请号:CN201910952043.2

    申请日:2019-09-30

    Inventor: 郭越 王桂彬

    Abstract: 本申请公开了装置、电子设备和计算机可读存储介质,涉及模型训练领域。具体实现方案为:在显存池的第一显存空间中,为神经网络模型的第一类信息分配显存块;在显存池的第二显存空间中,为神经网络模型的第二类信息分配显存块;其中,第一显存空间与第二显存空间在显存池中不具有重叠区域;第一类信息占用的显存块能够被回收,第二类信息占用的显存块不能被回收。通过将可回收显存块和不可回收显存块存放在不同的显存空间,可以避免产生分散的显存碎片,进而达到可以充分利用显存资源的效果。

    协处理器的设备执行代码的处理方法、装置、设备及计算机可读存储介质

    公开(公告)号:CN110647360A

    公开(公告)日:2020-01-03

    申请号:CN201910769460.3

    申请日:2019-08-20

    Abstract: 本申请提供一种协处理器的设备执行代码的处理方法、装置、设备及计算机可读存储介质,涉及人工智能技术领域。本申请实施例通过对所获取的协处理器的计算任务的计算表达式进行分析处理,以获得所述计算表达式所对应的语法树,其中,所述语法树包括数据节点和操作节点,进而可以根据所述语法树,生成所述协处理器的设备执行代码,使得能够对所述设备执行代码进行编译处理,以供所述协处理器执行,无需开发人员人工编译协处理器上所运行的设备执行代码,而是能够自动编译协处理器上所运行的设备执行代码,操作简单,而且正确率高,从而提高了协处理器的设备执行代码编译的效率和可靠性。

    神经网络训练中的信息处理方法、设备与存储介质

    公开(公告)号:CN111126596B

    公开(公告)日:2021-03-19

    申请号:CN201911301032.4

    申请日:2019-12-17

    Inventor: 郑焕鑫 王桂彬

    Abstract: 本申请公开了一种神经网络训练中的信息处理方法、设备与存储介质,涉及人工智能技术领域。具体实现方案为:在神经网络训练中,获取网络结构的具有顺序关系的多个操作基于输入数据执行前向计算得到的目标结果;将所述目标结果存储在内存中;基于所述内存中存储的所述目标结果和所述多个操作的逆运算进行反向计算,以训练所述神经网络的网络结构。本申请的技术方案,能够克服现有技术的不足,在神经网络训练中节省内存的开销,同时还能够保证神经网络训练中的计算复杂度较低,从而能够有效地节省神经网络的训练时间,提高神经网络的训练效率。

    并行语音合成方法、装置、设备以及计算机可读存储介质

    公开(公告)号:CN112151003A

    公开(公告)日:2020-12-29

    申请号:CN201910569448.8

    申请日:2019-06-27

    Abstract: 本公开提供了一种并行语音合成方法、装置、设备以及计算机可读存储介质。方法包括将一段文本拆分成多个片段,然后根据这段文本获得多个片段的用于循环神经网络的多个初始隐状态。方法还包括基于多个初始隐状态和多个片段的输入特征,并行合成多个片段。本公开的实施例在使用循环神经网络并行合成多个片段的过程中,通过隐状态预测模型为每个片段提供初始隐状态,不仅能够提升语音合成的速度,实现实时的语音合成,而且能够缓解片段之间的隐状态中断,由此保证合成语音的质量。

    神经网络模型的训练方法及装置

    公开(公告)号:CN111723901A

    公开(公告)日:2020-09-29

    申请号:CN201910208661.6

    申请日:2019-03-19

    Inventor: 王桂彬 白锦峰

    Abstract: 本发明提出一种神经网络模型的训练方法及装置,其中,该方法包括:获取神经网络初始模型;对所述神经网络初始模型的网络参数进行参数量化以生成参数量化神经网络模型;以及对所述参数量化神经网络模型进行激活量化。由于在训练神经网络模型的过程中,对网络参数和激活结果进行了量化,使应用比特乘法成为可能,实现了在保证神经网络模型的识别精度的前提下,极大地压缩了神经网络模型的深度和体积,极大地降低了神经网络模型在推理时的计算复杂度,加快了神经网络模型的推理速度。

    基于图形处理器的数据处理方法和装置

    公开(公告)号:CN105389772B

    公开(公告)日:2018-09-07

    申请号:CN201510876116.6

    申请日:2015-12-02

    Abstract: 本发明提出一种基于图形处理器的数据处理方法和装置。其中,该数据处理方法包括:在中央处理器CPU内创建用于分别控制图形处理器GPU的第一线程和第二线程,其中,所述第一线程用于调用双向LSTM算法的前向层Kernel序列,所述第二线程用于调用双向LSTM算法的反向层Kernel序列;通过所述第一线程和所述第二线程控制所述GPU进行并行数据处理。本发明实施例的数据处理方法,有效的提高了GPU的执行效率,缩短了LSTM的计算过程的执行时间。

Patent Agency Ranking