神经网络模型的训练方法及装置

    公开(公告)号:CN111723901B

    公开(公告)日:2024-01-12

    申请号:CN201910208661.6

    申请日:2019-03-19

    Inventor: 王桂彬 白锦峰

    Abstract: 本发明提出一种神经网络模型的训练方法及装置,其中,该方法包括:获取神经网络初始模型;对所述神经网络初始模型的网络参数进行参数量化以生成参数量化神经网络模型;以及对所述参数量化神经网络模型进行激活量化。由于在训练神经网络模型的过程中,对网络参数和激活结果进行了量化,使应用比特乘法成为可能,实现了在保证神经网络模型的识别精度的前提下,极大地压缩了神经网络模型的深度和体积,极大地降低了神经网络模型在推理时的计算复杂度,加快了神经网络模型的推理速度。

    并行语音合成方法、装置、设备以及计算机可读存储介质

    公开(公告)号:CN112151003B

    公开(公告)日:2025-01-28

    申请号:CN201910569448.8

    申请日:2019-06-27

    Abstract: 本公开提供了一种并行语音合成方法、装置、设备以及计算机可读存储介质。方法包括将一段文本拆分成多个片段,然后根据这段文本获得多个片段的用于循环神经网络的多个初始隐状态。方法还包括基于多个初始隐状态和多个片段的输入特征,并行合成多个片段。本公开的实施例在使用循环神经网络并行合成多个片段的过程中,通过隐状态预测模型为每个片段提供初始隐状态,不仅能够提升语音合成的速度,实现实时的语音合成,而且能够缓解片段之间的隐状态中断,由此保证合成语音的质量。

    显存管理方法、装置、电子设备和计算机可读存储介质

    公开(公告)号:CN110688327B

    公开(公告)日:2020-12-01

    申请号:CN201910952043.2

    申请日:2019-09-30

    Inventor: 郭越 王桂彬

    Abstract: 本申请公开了装置、电子设备和计算机可读存储介质,涉及模型训练领域。具体实现方案为:在显存池的第一显存空间中,为神经网络模型的第一类信息分配显存块;在显存池的第二显存空间中,为神经网络模型的第二类信息分配显存块;其中,第一显存空间与第二显存空间在显存池中不具有重叠区域;第一类信息占用的显存块能够被回收,第二类信息占用的显存块不能被回收。通过将可回收显存块和不可回收显存块存放在不同的显存空间,可以避免产生分散的显存碎片,进而达到可以充分利用显存资源的效果。

    一种数据处理方法及装置

    公开(公告)号:CN110197260A

    公开(公告)日:2019-09-03

    申请号:CN201910492996.5

    申请日:2019-06-06

    Inventor: 郑焕鑫 王桂彬

    Abstract: 本发明实施例提出一种数据处理方法及装置。所述方法包括:利用全局数据进行神经网络的前向计算,获得用于神经网络的反向计算的中间数据;将所述中间数据存入缓存单元;从所述缓存单元中读取所述中间数据;利用所述中间数据进行神经网络的反向计算,获得反向计算结果。本发明实施例在执行神经网络的反向计算时,读全局内存的次数减少,从而计算时间消耗减少,提高了数据处理速度。

    一种数据处理方法及装置

    公开(公告)号:CN110197260B

    公开(公告)日:2020-10-02

    申请号:CN201910492996.5

    申请日:2019-06-06

    Inventor: 郑焕鑫 王桂彬

    Abstract: 本发明实施例提出一种数据处理方法及装置。所述方法包括:利用全局数据进行神经网络的前向计算,获得用于神经网络的反向计算的中间数据;将所述中间数据存入缓存单元;从所述缓存单元中读取所述中间数据;利用所述中间数据进行神经网络的反向计算,获得反向计算结果。本发明实施例在执行神经网络的反向计算时,读全局内存的次数减少,从而计算时间消耗减少,提高了数据处理速度。

    模型训练方法、系统和装置

    公开(公告)号:CN105575389B

    公开(公告)日:2019-07-30

    申请号:CN201510888241.9

    申请日:2015-12-07

    Abstract: 本发明提出一种模型训练方法、系统和装置,该模型训练方法包括:接收管理节点发送的训练数据的描述信息、初始模型的模型参数和所述管理节点划分的服务节点与服务节点维护的模型参数的对应关系;根据所述训练数据的描述信息获得训练数据,并根据所述训练数据和所述初始模型的模型参数进行模型训练,获得更新后的模型参数;根据所述对应关系向服务节点发送所述更新后的模型参数中由所述服务节点维护的模型参数。本发明可以大幅提升模型训练的效率,同时使得海量规模(如上万小时)的语音数据训练深层模型成为可能,使得训练得到的模型可以覆盖更广泛的变化,因此可以显著提升模型的精度和推广性。

    模型训练方法、系统和装置

    公开(公告)号:CN105575389A

    公开(公告)日:2016-05-11

    申请号:CN201510888241.9

    申请日:2015-12-07

    CPC classification number: G10L15/063 G10L15/14

    Abstract: 本发明提出一种模型训练方法、系统和装置,该模型训练方法包括:接收管理节点发送的训练数据的描述信息、初始模型的模型参数和所述管理节点划分的服务节点与服务节点维护的模型参数的对应关系;根据所述训练数据的描述信息获得训练数据,并根据所述训练数据和所述初始模型的模型参数进行模型训练,获得更新后的模型参数;根据所述对应关系向服务节点发送所述更新后的模型参数中由所述服务节点维护的模型参数。本发明可以大幅提升模型训练的效率,同时使得海量规模(如上万小时)的语音数据训练深层模型成为可能,使得训练得到的模型可以覆盖更广泛的变化,因此可以显著提升模型的精度和推广性。

    基于图形处理器的数据处理方法和装置

    公开(公告)号:CN105389772A

    公开(公告)日:2016-03-09

    申请号:CN201510876116.6

    申请日:2015-12-02

    CPC classification number: G06T1/20 G06F9/3867

    Abstract: 本发明提出一种基于图形处理器的数据处理方法和装置。其中,该数据处理方法包括:在中央处理器CPU内创建用于分别控制图形处理器GPU的第一线程和第二线程,其中,所述第一线程用于调用双向LSTM算法的前向层Kernel序列,所述第二线程用于调用双向LSTM算法的反向层Kernel序列;通过所述第一线程和所述第二线程控制所述GPU进行并行数据处理。本发明实施例的数据处理方法,有效的提高了GPU的执行效率,缩短了LSTM的计算过程的执行时间。

    长短期记忆网络LSTM的训练系统、方法及电子设备

    公开(公告)号:CN111709513B

    公开(公告)日:2023-06-09

    申请号:CN201910202820.1

    申请日:2019-03-18

    Abstract: 本申请提出一种长短期记忆网络LSTM的训练系统及方法。其中,所述系统包括:主模型处理器,用于存储并维护LSTM的主模型,其中,LSTM的主模型包括第一至第M个网络层,M为正整数;以及第一至第N处理器,用于分别根据LSTM的主模型生成本地副模型,第一至第N处理器分别包括第一至第M个处理单元,第一至第M个处理单元分别用于训练第一至第M个网络层,其中,N为正整数,第一至第M个处理单元中至少一个处理单元为半精度计算模式,其他处理单元为单精度计算模式。由此,通过这种LSTM的训练系统,在LSTM模型训练中采用半精度/单精度浮点的混合数值表示,不仅提升了模型训练的速度,而且提高了模型的精度与性能。

Patent Agency Ranking