基于拆分学习的私有化大模型微调训练方法和装置

    公开(公告)号:CN119598509A

    公开(公告)日:2025-03-11

    申请号:CN202411650255.2

    申请日:2024-11-19

    Abstract: 本申请涉及一种基于拆分学习的私有化大模型微调训练方法和装置,其中,该方法包括:将预训练的大模型拆分成头部模型段、中间模型段以及尾部模型段;将原始数据拆分成隐私数据和非隐私数据;根据隐私数据和非隐私数据,协同训练客户端中的头部模型段和尾部模型段,及服务器中的第一中间模型段和第二中间模型段,得到目标大模型;其中,在协同训练过程中,同态加密客户端和服务器之间传输的与隐私数据相关的隐私中间激活量;目标大模型输出关于特定主题的文档答复。通过本申请,解决了相关技术中需要向服务器传输中间激活量,存在通过模型反演攻击推测或恢复原始数据的风险的问题;实现对隐私数据的保护,降低隐私数据泄露的风险。

    图神经网络训练方法、装置、设备和可读存储介质

    公开(公告)号:CN119398094A

    公开(公告)日:2025-02-07

    申请号:CN202411303419.4

    申请日:2024-09-18

    Abstract: 本申请涉及一种图神经网络训练方法、装置、设备和可读存储介质。所述方法包括:获取图结构的多个训练边集和待训练的图神经网络;确定每个训练边集各条边中每个节点的邻居节点集;通过确定邻居节点集中每个邻居节点的邻居位置编码信息和结构位置编码信息,以及对节点间的共同邻居进行扩展,得到共同邻居编码信息;根据结构位置编码信息和共同邻居编码信息对图神经网络进行训练,在满足预设训练条件的情况下,结束训练得到训练好的图神经网络;获取待处理图结构,将待处理的图结构输入至训练好的图神经网络,得到待处理图结构的预测结果。采用本方法能够提高预测的准确性。

    资源受限的大模型异构训练方法、计算机设备和存储介质

    公开(公告)号:CN119597469A

    公开(公告)日:2025-03-11

    申请号:CN202411656715.2

    申请日:2024-11-19

    Abstract: 本申请涉及一种资源受限的大模型异构训练方法、计算机设备和存储介质,方法包括:在图像处理器进行模型前向传播时生成的激活量中,根据与各激活量对应的计算量之间的依赖关系和/或各激活量的计算量与存储量确定第一激活量,并将第一激活量异步传输至中央处理器;在模型反向传播过程中从中央处理器加载第一激活量至图像处理器;获取图像处理器基于第一激活量计算得到模型参数的梯度,将梯度异步传输至中央处理器;确定中央处理器中基于梯度更新得到的优化器,并获取更新后的优化器调整得到的模型参数,将模型参数异步传输至图像处理器。采用本方法能够解决显存资源受限的大模型训练困难且显卡计算效率低的问题。

    面向代理模型的推理查询重优化方法、装置、设备和介质

    公开(公告)号:CN119149588A

    公开(公告)日:2024-12-17

    申请号:CN202411639951.3

    申请日:2024-11-18

    Abstract: 本申请涉及一种面向代理模型的推理查询重优化方法、装置、设备和介质,通过基于第一查询计划,将当前批次数据输入至推理模型进行处理,得到所需查询的数据;其中,推理模型包括代理模型和机器学习模型;在执行第一查询计划的过程中,监测统计信息;其中,统计信息包括系统资源或者查询计划选择率;在监测到统计信息的变化超出阈值的情况下,基于第二查询计划,将历史数据输入至代理模型进行重训练;其中,历史数据包括在当前批次数据之前输入至推理模型处理后携带上标签的数据;减小了重优化推理查询方法产生的计算开销,提升了重优化效率。

    一种基于分层对齐数据块的图表示方法

    公开(公告)号:CN118860283A

    公开(公告)日:2024-10-29

    申请号:CN202410889205.3

    申请日:2024-07-04

    Abstract: 本发明提出了一种基于分层对齐数据块的图表示方法,通过分类分层的图存储方法,将大规模图数据中不同大小的顶点数据分类、分层地存储到不同的数据格式中,提升块设备访问图数据的访存效率。同时,本发明还提出了一种分层的对齐图数据块管理方式,将不同大小的顶点数据组织成多层不同大小的对齐图数据块,以提高小顶点的I/O效率,并最小化大顶点的元数据管理开销。

Patent Agency Ranking