-
公开(公告)号:CN119622118B
公开(公告)日:2025-05-13
申请号:CN202510157998.4
申请日:2025-02-13
Applicant: 浪潮电子信息产业股份有限公司
IPC: G06F16/9536 , G06F16/906 , G06Q50/00 , H04L51/212 , H04L51/52
Abstract: 本发明公开了一种消息控制方法、产品、设备及介质,涉及信息传播控制技术领域。本方案为社交网络的各节点定义了引力值的概念;引力值表征两个节点之间的信息传播关联程度;根据各节点的引力值更新对应的聚类标签,能够将社交网络中的各节点依据聚类标签划分为多个子网络,最终分别对各子网络执行消息控制,大幅降低了计算复杂度。同时,由于拆分后的子网络之间相互独立,因此不同子网络间可以并发同步执行消极消息控制等相关操作,从而提升系统的并发性,缩短了算法执行周期并增强了算法可扩展性,适用于大规模社交网络。
-
公开(公告)号:CN119622118A
公开(公告)日:2025-03-14
申请号:CN202510157998.4
申请日:2025-02-13
Applicant: 浪潮电子信息产业股份有限公司
IPC: G06F16/9536 , G06F16/906 , G06Q50/00 , H04L51/212 , H04L51/52
Abstract: 本发明公开了一种消息控制方法、产品、设备及介质,涉及信息传播控制技术领域。本方案为社交网络的各节点定义了引力值的概念;引力值表征两个节点之间的信息传播关联程度;根据各节点的引力值更新对应的聚类标签,能够将社交网络中的各节点依据聚类标签划分为多个子网络,最终分别对各子网络执行消息控制,大幅降低了计算复杂度。同时,由于拆分后的子网络之间相互独立,因此不同子网络间可以并发同步执行消极消息控制等相关操作,从而提升系统的并发性,缩短了算法执行周期并增强了算法可扩展性,适用于大规模社交网络。
-
公开(公告)号:CN117873931B
公开(公告)日:2024-06-07
申请号:CN202410270572.5
申请日:2024-03-11
Applicant: 浪潮电子信息产业股份有限公司
IPC: G06F13/16
Abstract: 本申请公开了计算机技术领域内的一种数据处理系统、方法及介质。在本申请中,数据处理系统包括多个内存器件和至少一个主机;主机接收到访问请求后,若确定自身缓存组件中未存储访问请求要访问的目标数据,则当前主机将访问请求传输至多个内存器件,以使多个内存器件响应访问请求,并利用缓存预取决策器确定预缓存数据,将预缓存数据传输至当前主机中的缓存组件进行存储,由此将缓存预取决策器由主机端转移至内存端,降低主机负载,提高主机处理访问请求的效率;并且,内存端可以将预缓存数据直接传输至当前主机中的缓存组件进行存储,而无需主机向内存端请求预缓存数据,可以提高预缓存效率。
-
公开(公告)号:CN116704296B
公开(公告)日:2023-11-03
申请号:CN202310974709.0
申请日:2023-08-04
Applicant: 浪潮电子信息产业股份有限公司
IPC: G06V10/774 , G06V10/44 , G06V10/82 , G06N3/04 , G06N3/08
Abstract: 本发明公开了一种图像处理方法、装置、系统、设备及计算机存储介质,涉及图像处理技术领域,应用于目标设备,对目标设备分配得到的图像处理子神经网络模型进行当前轮的训练;计算当前轮训练好的图像处理子神经网络模型的目标函数的局部特征矩阵;判断是否传输当前轮的局部特征矩阵;若是,则传输当前轮的局部特征矩阵至主设备,以使主设备基于当前轮的局部特征矩阵生成当前轮的全局参数;若否,则不传输当前轮的局部特征矩阵至主设备,以使主设备基于上一轮的局部特征矩阵生成当前轮的全局参数;以基于当前轮的全局参数得到训练好的图像处理神经网络模型进行图像处理。目标设备选择性的将局部特征矩阵传输给主设备,提高了处理效率。
-
公开(公告)号:CN116028232B
公开(公告)日:2023-07-14
申请号:CN202310166793.3
申请日:2023-02-27
Applicant: 浪潮电子信息产业股份有限公司
IPC: G06F9/50
Abstract: 本发明公开了一种跨机柜服务器内存池化方法、装置、设备、服务器及介质,属于服务器领域,用于对服务器内存进行池化。考虑到同一服务器集群中不同服务器机柜的内存使用情况不同,本申请在不同服务器机柜间搭建了通信装置,服务器机柜可以向其他服务器机柜申请第一目标设备的内存使用权,在申请到内存使用权后,便可以实现跨机柜对于设备内存的使用,在不增加内存设备数量的基础上满足了各个服务器机柜的内存使用需求,且提升了资源利用率。
-
公开(公告)号:CN115994590B
公开(公告)日:2023-07-14
申请号:CN202310288301.8
申请日:2023-03-23
Applicant: 浪潮电子信息产业股份有限公司
Abstract: 本申请公开了一种基于分布式集群的数据处理方法、系统、设备及存储介质,应用于机器学习技术领域,包括:获取1个批次的训练样本并进行自身的深度学习模型的训练,确定出深度学习模型的梯度数据的一阶和二阶动量矩阵并发送至目标边缘域设备,以使目标边缘域设备根据接收的n个终端设备各自发送的数据确定出动量参数比值矩阵并进行矩阵压缩,接收压缩后的矩阵并进行矩阵的大小恢复,并基于恢复结果,通过一阶优化算法,进行深度学习模型的参数更新,并返回训练直至模型训练结束;将待识别数据输入至训练完成的深度学习模型,并得到待识别数据的识别结果。应用本申请的方案,提高了深度学习模型分布式训练的收敛速度,也降低了训练耗时。
-
公开(公告)号:CN116681973B
公开(公告)日:2023-11-03
申请号:CN202310967935.6
申请日:2023-08-03
Applicant: 浪潮电子信息产业股份有限公司
IPC: G06V10/774 , G06V10/82 , G06N3/048 , G06N3/08
Abstract: 本发明公开了一种图像处理方法、装置、系统、设备及计算机存储介质,涉及图像处理技术领域,应用于目标设备,对分配得到的图像处理子神经网络模型进行当前轮的训练;获取当前轮的局部激活矩阵、局部梯度矩阵;对目标设备的局部梯度矩阵和其他设备的局部梯度矩阵进行全局规约操作,得到全局梯度矩阵;将目标设备的局部激活矩阵和全局梯度矩阵进行对称拆分并运算来生成目标设备的局部梯度配置;传输局部梯度配置,以基于局部梯度配置生成当前轮的全局参数;若不结束训练,则基于当前轮的全局参数进行下一轮的训练;若结束训练,则结束。模型训练中只传输局部梯度配置,降低了数据传输量,提高了图像处理效率。
-
公开(公告)号:CN115953651B
公开(公告)日:2023-09-12
申请号:CN202310232993.4
申请日:2023-03-13
Applicant: 浪潮电子信息产业股份有限公司
IPC: G06V10/774 , G06V10/82 , G06F17/16
Abstract: 本申请公开了一种基于跨域设备的模型训练方法、装置、设备及介质,涉及深度学习领域。该方法中,当属性信息与预测属性信息之间的差值时大于第一阈值,更新模型并使用更新后的模型再次对目标对象进行识别,当两者之间的差值小于或等于第一阈值,完成对模型的训练。在模型训练过程中,将第一费歇耳信息矩阵拆分为第二费歇耳矩阵,求解各第二费歇耳矩阵的逆矩阵,并进行迭代;在相邻两次迭代的改变量小于第二阈值时利用上一次迭代的第二费歇耳信息矩阵的第二逆矩阵作为当前次迭代的第二费歇耳信息矩阵的逆矩阵。可见,减小了迭代过程中的计算量以及费歇耳信息矩阵更新频率,较准确、高效地对目标对象进行识别;此外,避免了模型转存造成的资源浪费。
-
公开(公告)号:CN116704296A
公开(公告)日:2023-09-05
申请号:CN202310974709.0
申请日:2023-08-04
Applicant: 浪潮电子信息产业股份有限公司
IPC: G06V10/774 , G06V10/44 , G06V10/82 , G06N3/04 , G06N3/08
Abstract: 本发明公开了一种图像处理方法、装置、系统、设备及计算机存储介质,涉及图像处理技术领域,应用于目标设备,对目标设备分配得到的图像处理子神经网络模型进行当前轮的训练;计算当前轮训练好的图像处理子神经网络模型的目标函数的局部特征矩阵;判断是否传输当前轮的局部特征矩阵;若是,则传输当前轮的局部特征矩阵至主设备,以使主设备基于当前轮的局部特征矩阵生成当前轮的全局参数;若否,则不传输当前轮的局部特征矩阵至主设备,以使主设备基于上一轮的局部特征矩阵生成当前轮的全局参数;以基于当前轮的全局参数得到训练好的图像处理神经网络模型进行图像处理。目标设备选择性的将局部特征矩阵传输给主设备,提高了处理效率。
-
公开(公告)号:CN116644804A
公开(公告)日:2023-08-25
申请号:CN202310928151.2
申请日:2023-07-27
Applicant: 浪潮电子信息产业股份有限公司
IPC: G06N3/098
Abstract: 本发明公开了一种分布式训练系统、神经网络模型训练方法、设备和介质,涉及计算机技术领域,该系统包括控制器和多个计算节点;控制器用于获取目标神经网络模型和训练数据集,并向多个计算节点发送对应的节点训练模型和节点训练数据集;目标神经网络模型为初始的神经网络模型去除第i个神经网络层与第i+1个神经网络层之间链接重要程度最低的第一数量个链接、去除神经元重要程度最低的第二数量个神经元以及对应的链接得到神经网络模型;计算节点用于基于接收到的节点训练数据集和接收到的节点训练模型的当前模型参数计算局部信息,并基于全局信息更新节点训练模型的模型参数,实现节点训练模型的迭代训练,得到训练完成的节点训练模型。
-
-
-
-
-
-
-
-
-