一种跨域分布式计算系统、方法、存储介质和电子设备

    公开(公告)号:CN117687801B

    公开(公告)日:2024-05-10

    申请号:CN202410146915.7

    申请日:2024-02-02

    Abstract: 本发明提供一种跨域分布式计算系统、方法、存储介质和电子设备,涉及机器学习领域,包括:任务获取模块,用于获取分布式计算任务;任务训练模块,用于利用分布式神经网络模型对所述分布式计算任务进行迭代的二阶优化训练,并在所述二阶优化训练时设定矩阵更新阈值,以加速所述分布式神经网络模型的所述二阶优化训练;结果输出模块,用于整合各所述分布式神经网络模型的训练结果,并输出全局模型参数;所述全局模型参数为所述分布式计算任务对应训练模型的模型参数。本发明能够降低算法运算复杂度。提高训练效率,在训练或推理之前将模型和数据加载到内存中,减少IO开销,从而减少对远程域的访问频率,提高系统的响应速度和性能。

    分布式训练系统、神经网络模型训练方法、设备和介质

    公开(公告)号:CN116644804B

    公开(公告)日:2024-01-12

    申请号:CN202310928151.2

    申请日:2023-07-27

    Abstract: 本发明公开了一种分布式训练系统、神经网络模型训练方法、设备和介质,涉及计算机技术领域,该系统包括控制器和多个计算节点;控制器用于获取目标神经网络模型和训练数据集,并向多个计算节点发送对应的节点训练模型和节点训练数据集;目标神经网络模型为初始的神经网络模型去除第i个神经网络层与第i+1个神经网络层之间链接重要程度最低的第一数量个链接、去除神经元重要程度最低的第二数量个神经元以及对应的链接得到神经网络模型;计算节点用于基于接收到的节点训练数据集和接收到的节点训练模型的当前模型参数计算局部信息,并基于全局信息更新节点训练模型的模型参数,实现节点训练模型的迭代训练,得到训练完成的节点训练模型。

    信息融合、数据通信方法、装置及电子设备和存储介质

    公开(公告)号:CN114997337B

    公开(公告)日:2023-01-13

    申请号:CN202210838709.3

    申请日:2022-07-18

    Abstract: 本申请公开了一种信息融合方法、数据通信方法、装置及一种电子设备和一种计算机可读存储介质,涉及计算机技术领域,该信息融合方法包括:当满足通信触发条件时,获取分布式训练系统中各计算节点的局部参数;其中,通信触发条件为参与本轮训练的关键节点均执行完成本轮训练任务;在各计算节点中选择N个参与下一轮训练的关键节点,对N个关键节点的局部参数进行融合得到全局参数;将全局参数发送至各计算节点,并向关键节点发送训练命令,以便关键节点基于全局参数执行下一轮训练任务。本申请提升了模型的分布式训练速度。

    跨机柜服务器内存池化方法、装置、设备、服务器及介质

    公开(公告)号:CN116028232A

    公开(公告)日:2023-04-28

    申请号:CN202310166793.3

    申请日:2023-02-27

    Abstract: 本发明公开了一种跨机柜服务器内存池化方法、装置、设备、服务器及介质,属于服务器领域,用于对服务器内存进行池化。考虑到同一服务器集群中不同服务器机柜的内存使用情况不同,本申请在不同服务器机柜间搭建了通信装置,服务器机柜可以向其他服务器机柜申请第一目标设备的内存使用权,在申请到内存使用权后,便可以实现跨机柜对于设备内存的使用,在不增加内存设备数量的基础上满足了各个服务器机柜的内存使用需求,且提升了资源利用率。

    一种基于跨域设备的模型训练方法、装置、设备及介质

    公开(公告)号:CN115953651A

    公开(公告)日:2023-04-11

    申请号:CN202310232993.4

    申请日:2023-03-13

    Abstract: 本申请公开了一种基于跨域设备的模型训练方法、装置、设备及介质,涉及深度学习领域。该方法中,当属性信息与预测属性信息之间的差值时大于第一阈值,更新模型并使用更新后的模型再次对目标对象进行识别,当两者之间的差值小于或等于第一阈值,完成对模型的训练。在模型训练过程中,将第一费歇耳信息矩阵拆分为第二费歇耳矩阵,求解各第二费歇耳矩阵的逆矩阵,并进行迭代;在相邻两次迭代的改变量小于第二阈值时利用上一次迭代的第二费歇耳信息矩阵的第二逆矩阵作为当前次迭代的第二费歇耳信息矩阵的逆矩阵。可见,减小了迭代过程中的计算量以及费歇耳信息矩阵更新频率,较准确、高效地对目标对象进行识别;此外,避免了模型转存造成的资源浪费。

    信息融合、数据通信方法、装置及电子设备和存储介质

    公开(公告)号:CN114997337A

    公开(公告)日:2022-09-02

    申请号:CN202210838709.3

    申请日:2022-07-18

    Abstract: 本申请公开了一种信息融合方法、数据通信方法、装置及一种电子设备和一种计算机可读存储介质,涉及计算机技术领域,该信息融合方法包括:当满足通信触发条件时,获取分布式训练系统中各计算节点的局部参数;其中,通信触发条件为参与本轮训练的关键节点均执行完成本轮训练任务;在各计算节点中选择N个参与下一轮训练的关键节点,对N个关键节点的局部参数进行融合得到全局参数;将全局参数发送至各计算节点,并向关键节点发送训练命令,以便关键节点基于全局参数执行下一轮训练任务。本申请提升了模型的分布式训练速度。

    一种数据处理系统、方法及介质
    18.
    发明公开

    公开(公告)号:CN117873931A

    公开(公告)日:2024-04-12

    申请号:CN202410270572.5

    申请日:2024-03-11

    Abstract: 本申请公开了计算机技术领域内的一种数据处理系统、方法及介质。在本申请中,数据处理系统包括多个内存器件和至少一个主机;主机接收到访问请求后,若确定自身缓存组件中未存储访问请求要访问的目标数据,则当前主机将访问请求传输至多个内存器件,以使多个内存器件响应访问请求,并利用缓存预取决策器确定预缓存数据,将预缓存数据传输至当前主机中的缓存组件进行存储,由此将缓存预取决策器由主机端转移至内存端,降低主机负载,提高主机处理访问请求的效率;并且,内存端可以将预缓存数据直接传输至当前主机中的缓存组件进行存储,而无需主机向内存端请求预缓存数据,可以提高预缓存效率。

    一种跨域分布式计算系统、方法、存储介质和电子设备

    公开(公告)号:CN117687801A

    公开(公告)日:2024-03-12

    申请号:CN202410146915.7

    申请日:2024-02-02

    Abstract: 本发明提供一种跨域分布式计算系统、方法、存储介质和电子设备,涉及机器学习领域,包括:任务获取模块,用于获取分布式计算任务;任务训练模块,用于利用分布式神经网络模型对所述分布式计算任务进行迭代的二阶优化训练,并在所述二阶优化训练时设定矩阵更新阈值,以加速所述分布式神经网络模型的所述二阶优化训练;结果输出模块,用于整合各所述分布式神经网络模型的训练结果,并输出全局模型参数;所述全局模型参数为所述分布式计算任务对应训练模型的模型参数。本发明能够降低算法运算复杂度。提高训练效率,在训练或推理之前将模型和数据加载到内存中,减少IO开销,从而减少对远程域的访问频率,提高系统的响应速度和性能。

Patent Agency Ranking