神经网络训练方法和装置、文本翻译方法、电子设备及介质

    公开(公告)号:CN116822608A

    公开(公告)日:2023-09-29

    申请号:CN202210260924.X

    申请日:2022-03-16

    Abstract: 本公开提供了一种神经网络训练方法,应用于人工智能技术领域,包括:获取初始训练样本数据集,初始训练样本数据集中的初始训练样本包括初始文本数据,对初始训练样本进行预处理,生成训练样本数据集,训练样本数据集中得训练样本包括文本数据以及与文本数据对应的标签信息,标签信息用于表征文本数据的翻译结果,构建待训练的神经网络,待训练的神经网络包括激活层、全连接前向传播层、卷积层,激活层设置于全连接前向传播层之间或者卷积层后,激活层的激活函数采用加法和移位操作实现,利用训练样本数据集训练待训练的神经网络,得到训练完成的神经网络。本申请还公开了一种神经网络训练装置、电子设备及存储介质。

    数据处理方法及数据处理装置

    公开(公告)号:CN114119344B

    公开(公告)日:2025-02-28

    申请号:CN202111454533.3

    申请日:2021-11-30

    Abstract: 本公开提供了一种数据处理方法及数据处理装置,可以应用于人工智能技术领域。该方法包括:从第一缓存中获取待处理图像的数据矩阵和目标卷积层的权重矩阵;将数据矩阵和权重矩阵按行分割为多个数据流,并分别写入多个第二缓存中,其中,每个第二缓存具有对应的计算单元;对于每个第二缓存,在第二缓存中的已写入数据流满足计算窗口需求的情况下,基于预设步长,将已写入数据流构建第一数据序列和第二数据序列;基于预设步长,将第一数据序列和第二数据序列分别从计算单元的两侧输入,其中,计算单元包括串联的多个计算节点;以及将多个计算节点累加的部分积输入加法树中,得到当前计算窗口的输出值。

    数据处理方法及数据处理装置

    公开(公告)号:CN114119344A

    公开(公告)日:2022-03-01

    申请号:CN202111454533.3

    申请日:2021-11-30

    Abstract: 本公开提供了一种数据处理方法及数据处理装置,可以应用于人工智能技术领域。该方法包括:从第一缓存中获取待处理图像的数据矩阵和目标卷积层的权重矩阵;将数据矩阵和权重矩阵按行分割为多个数据流,并分别写入多个第二缓存中,其中,每个第二缓存具有对应的计算单元;对于每个第二缓存,在第二缓存中的已写入数据流满足计算窗口需求的情况下,基于预设步长,将已写入数据流构建第一数据序列和第二数据序列;基于预设步长,将第一数据序列和第二数据序列分别从计算单元的两侧输入,其中,计算单元包括串联的多个计算节点;以及将多个计算节点累加的部分积输入加法树中,得到当前计算窗口的输出值。

    数据处理的方法以及应用在神经网络的新型跳过连接结构

    公开(公告)号:CN115115035A

    公开(公告)日:2022-09-27

    申请号:CN202210825276.8

    申请日:2022-07-13

    Abstract: 本公开提供了一种数据处理的方法以及应用在神经网络的新型跳过连接结构,可以应用于人工智能技术领域。该方法包括:从存储介质中读取输入数据;通过处理器将输入数据输入第一计算旁路,以便依次通过第一归一化层、第一全连接层、激活层和第二全连接层对输入数据进行计算,得到第一中间数据;通过处理器将输入数据输入第二计算旁路,以便通过第一缩放单元对输入数据进行缩放处理,并与第一中间数据进行融合得到第二中间数据;通过处理器将输入数据输入主计算支路,以便通过第二缩放单元对输入数据进行缩放处理,并与第二中间数据进行融合,得到输出数据。

Patent Agency Ranking