计算图的优化方法、装置、计算机设备和存储介质

    公开(公告)号:CN111158901A

    公开(公告)日:2020-05-15

    申请号:CN201911249112.X

    申请日:2019-12-09

    Inventor: 周舒畅 王田

    Abstract: 本发明涉及一种计算图的优化方法、装置、计算机设备和存储介质。该方法通过获取计算网络模型的计算图,再在计算图中插入至少一个检查节点,并当运行至每一个检查节点时,通过当前的检查节点获取当前性能裕量,然后根据当前性能裕量,确定优化策略,以及根据该优化策略对当前的检查节点之后的计算节点所需消耗资源进行优化。上述优化方法通过插入检查节点获取计算机设备在运行到各检查节点时的当前性能裕量,再根据当前性能裕量,选择符合计算机设备实际运行情况的优化策略对计算节点所需消耗资源进行优化,使计算机设备运行至上述计算节点的过程中,可以动态调整各计算节点计算时的资源使用情况,以提高计算机设备上的资源利用率。

    神经网络联合编译的方法、装置和电子设备

    公开(公告)号:CN110908667B

    公开(公告)日:2021-11-16

    申请号:CN201911138469.0

    申请日:2019-11-18

    Inventor: 周舒畅 王田

    Abstract: 本发明提供了一种神经网络联合编译的方法、装置和电子设备,该方法包括:获取多个待编译神经网络模型和多个待编译神经网络模型的计算图;确定多个待编译神经网络模型的模型组合方案,并对每种模型组合方案中的待编译神经网络模型的计算图进行联合编译,得到每种模型组合方案对应的优化计算图;在优化计算图中确定目标优化计算图,并根据目标优化计算图生成目标指令,以使目标硬件载入目标指令执行图像处理任务。通过本发明方法编译得到的目标指令在目标硬件上运行时,既能保证充分利用硬件的性能,还能确保目标指令的高效运行。

    神经网络模型量化方法、装置及电子设备

    公开(公告)号:CN111401550A

    公开(公告)日:2020-07-10

    申请号:CN202010164284.3

    申请日:2020-03-10

    Abstract: 本发明提供了一种神经网络模型量化方法、装置及电子设备,涉及机器学习技术领域,该方法包括:获取神经网络模型;其中,神经网络模型包括卷积层、归一化层和量化激活层,量化激活层的输出特征为整数型特征;将所述卷积层的参数转换为整数型参数;对归一化层和所述量化激活层进行合并,得到合并层;将合并层的参数转换为整数型参数,得到量化后的神经网络模型。本发明降低了神经网络模型的运算复杂度,使得量化后的神经网络模型在只支持定点或低位宽运算的目标设备上可以加速运行。

    神经网络联合编译的方法、装置和电子设备

    公开(公告)号:CN110908667A

    公开(公告)日:2020-03-24

    申请号:CN201911138469.0

    申请日:2019-11-18

    Inventor: 周舒畅 王田

    Abstract: 本发明提供了一种神经网络联合编译的方法、装置和电子设备,该方法包括:获取多个待编译神经网络模型和多个待编译神经网络模型的计算图;确定多个待编译神经网络模型的模型组合方案,并对每种模型组合方案中的待编译神经网络模型的计算图进行联合编译,得到每种模型组合方案对应的优化计算图;在优化计算图中确定目标优化计算图,并根据目标优化计算图生成目标指令,以使目标硬件载入目标指令执行图像处理任务。通过本发明方法编译得到的目标指令在目标硬件上运行时,既能保证充分利用硬件的性能,还能确保目标指令的高效运行。

Patent Agency Ranking