-
公开(公告)号:CN115039109A
公开(公告)日:2022-09-09
申请号:CN202080094466.6
申请日:2020-12-16
Applicant: 微软技术许可有限责任公司
Inventor: B·普蒂佩迪 , M·梅斯马霍斯罗沙希 , 奚锦文 , S·M·库尔卡尼 , M·特伦布莱 , M·贝宁格 , N·克劳迪诺·佩雷拉·洛佩斯
Abstract: 本公开的实施例包括一种错误恢复方法,该错误恢复方法包括检测计算错误,重启处理数据集的多个人工智能处理器中的第一人工智能处理器,以及在人工智能处理器加载模型,其中该模型与在由多个人工智能处理器对来自数据集的数据的先前处理迭代期间由多个人工智能处理器处理的相同模型相对应。
-
公开(公告)号:CN114127741A
公开(公告)日:2022-03-01
申请号:CN202080051365.0
申请日:2020-06-09
Applicant: 微软技术许可有限责任公司
Inventor: B·普蒂佩迪 , M·特伦布莱 , S·S·布哈拉德瓦杰 , 奚锦文 , M·梅斯马霍斯罗沙希
Abstract: 本文中所描述的方法、系统、装置和计算机程序产品支持大型AI模型在被通信地连接到参数服务器的存储器受限目标设备上的执行,该参数服务器存储AI模型的主副本。AI模型可以被分解成较小的部分(例如,层或子层),并且每个部分可以在目标设备上尽可能高效地执行。在AI模型的一部分的执行完成之后,可以在目标设备处下载并执行AI模型的另一部分。一次执行AI模型的一部分的该范例允许大型AI模型的动态执行。
-
公开(公告)号:CN119404194A
公开(公告)日:2025-02-07
申请号:CN202380037288.7
申请日:2023-02-19
Applicant: 微软技术许可有限责任公司
Inventor: M·梅斯马霍斯罗沙希 , B·达尔维什·鲁哈尼 , E·S·钟 , D·C·伯格 , M·T·戈卢布
IPC: G06N3/0455 , G06N3/082 , G06N3/0495 , G06N3/0985
Abstract: 本公开的实施例包括用于提供变换器的模型定制以提高效率的系统和方法。接收变换器模型的第一设置集合。基于第一设置集合,确定变换器模型的第二设置集合。使用第一设置集合和第二设置集合来配置和训练变换器模型。使用第一设置集合和第二设置集合来配置和训练变换器模型允许使用减少的计算资源量来训练变换器模型。
-
公开(公告)号:CN114127740A
公开(公告)日:2022-03-01
申请号:CN202080051343.4
申请日:2020-06-09
Applicant: 微软技术许可有限责任公司
Inventor: B·普蒂佩迪 , M·特伦布莱 , S·S·布哈拉德瓦杰 , D·帕特尔 , 奚锦文 , M·梅斯马霍斯罗沙希
Abstract: 本文中描述了启用大型AI模型在被通信地连接到参数服务器的存储器受限目标设备上的执行的方法、系统、装置和计算机程序产品,该参数服务器存储AI模型的主副本。AI模型可以被分解成较小的部分(例如,层或子层),并且每个部分可以在目标设备上尽可能高效地执行。在AI模型的一部分的执行完成之后,可以在目标设备处下载并执行AI模型的另一部分。为了提高效率,可以将输入样本划分为微批次,并且按顺序执行的多个微批次可以形成迷你批次。可以调节一组微批次或迷你批次的大小以减少通信开销。可以在参数服务器和目标设备处执行多级并行的参数缩减。
-
公开(公告)号:CN114127702A
公开(公告)日:2022-03-01
申请号:CN202080051390.9
申请日:2020-06-09
Applicant: 微软技术许可有限责任公司
IPC: G06F15/177 , G06F15/163
Abstract: 本文中所描述的方法、系统、装置和计算机程序产品支持大型AI模型在被通信地连接到参数服务器的存储器受限目标设备上的执行,该参数服务器存储AI模型的主副本。AI模型可以被分解成较小的部分(例如,层或子层),并且每个部分可以在目标设备上尽可能高效地执行。在AI模型的一部分的执行完成之后,可以在目标设备处下载并执行AI模型的另一部分。为了提高效率,可以将输入样本划分为微批次,并且按顺序执行的多个微批次可以形成迷你批次。可以手动或自动地调节一组微批次或迷你批次的大小以减少通信开销。
-
-
-
-