一种针对大语言模型的推理过程的优化方法及装置

    公开(公告)号:CN119849626A

    公开(公告)日:2025-04-18

    申请号:CN202411916870.3

    申请日:2024-12-24

    Abstract: 本申请实施例提供了一种针对大语言模型的推理过程的优化方法及装置,涉及大语言模型技术领域,该方法具体为:接收用户输入的问题文本;获取所述问题文本对应的目标特征集合,并基于所述目标特征集合对所述问题文本进行复杂度量化评估,以获取所述问题文本对应的目标复杂度;所述目标特征集合中的特征用于表征所述问题文本的复杂性;基于所述目标复杂度确定待激活的解码层的目标数量M,并将所述目标数量的解码层进行激活;其中,M为大于等于1的整数;待M个解码层激活之后,利用所述M个解码层对所述问题文本进行解码分析,获取所述问题文本对应的目标答复文本。本申请能够提高大语言模型的推理效率,同时避免资源浪费。

    基于对偶复数的知识图谱推理方法、装置、设备及介质

    公开(公告)号:CN119849625A

    公开(公告)日:2025-04-18

    申请号:CN202411916264.1

    申请日:2024-12-24

    Abstract: 本公开涉及一种基于对偶复数的知识图谱推理方法、装置、设备及介质,该方法包括:从待推理的知识图谱中提取样本三元组;对样本三元组进行负采样,得到负样本三元组;将样本三元组和负样本三元组确定为训练数据输入至用于将实体和关系嵌入至对偶复数空间的向量转换模型,基于向量转换模型输出的第一头实体向量、第一关系向量、第一尾实体向量、第二头实体向量、第二关系向量和第二尾实体向量构建损失函数,并对向量转换模型进行训练;基于训练后的向量转换模型对知识图谱进行推理补全。本公开通过将对偶复数空间应用于知识图谱的向量表示并训练向量转换模型,能够在不牺牲模型表现力的情况下减少参数量,提高知识图谱推理补全任务的运算效率。

    基于大模型的隐私保护方法、装置、设备及介质

    公开(公告)号:CN119830345A

    公开(公告)日:2025-04-15

    申请号:CN202411915119.1

    申请日:2024-12-24

    Abstract: 本公开实施例涉及一种基于大模型的隐私保护方法、装置、设备及介质,该方法包括:获取用户输入文本中的隐私信息以及隐私信息的实体类型标识;根据用户输入文本和实体类型标识,对隐私信息进行基于上下文的编码处理和基于类型的解码处理,得到隐私信息对应的替代信息;基于隐私信息和替代信息之间的对应关系,对用户输入文本进行基于问答模型的脱敏问答并恢复隐私信息,生成用户输入文本的应答文本。从而,提高了替代信息上下文语义的连贯性和完整性,以及替代信息与隐私信息的实体类型一致性,降低了将隐私信息替换为替代信息对脱敏问答的影响,在脱敏问答过程中保护了用户隐私,又使得最终生成的应答文本具有更好的准确性以及文本连贯性。

    一种多模态图表问答大模型的评价测试方法、介质及设备

    公开(公告)号:CN119760369A

    公开(公告)日:2025-04-04

    申请号:CN202411808970.4

    申请日:2024-12-10

    Abstract: 本发明涉及大模型评测领域,特别是涉及一种多模态图表问答大模型的评价测试方法、介质及设备。包括:将判断类测试数据集,输入待评测大模型,以获取判断类模型输出结果。判断类问答对中的问题信息包括对问题本体文本及对回答信息只能是正面或反面信息的提示信息。将所有填空类模型输出结果、选择类模型输出结果及判断类模型输出结果的准确性信息进行统计,生成待评测大模型的执行评价信息。本发明中鉴于多模态大模型对指令的遵循可能存在潜在的变异性,所以在针对低阶任务性能的评价中,使用的指令类型包括从正面和负面角度提出的判断题、填空题和选择题三种题型来对待评测模型进行提问,由此来更加全面的对待评测大模型进行评测。

    多模态图表问答大模型构建方法、电子设备和存储介质

    公开(公告)号:CN119692472A

    公开(公告)日:2025-03-25

    申请号:CN202411760334.9

    申请日:2024-12-03

    Abstract: 本发明提供了一种多模态图表问答大模型构建方法、电子设备和存储介质,包括:基于第一样本数据集对图文对齐模型进行训练,得到训练好的图文特征对齐模型;其中,第一样本数据集中包括图像样本和对应的文本内容;基于第二样本数据集对具有训练好的图文特征对齐模型的多模态图表问答大模型进行训练,得到训练后的多模态图表问答大模型,作为最终的多模态图表问答大模型,第二样本数据集包括图表样本的上下文表示信息、图像和问答对数据。本发明得到的多模态图表问答大模型相对于现有的多模态图表问答大模型的图表问答能力能够得到进一步提升,且具有较强的中文理解能力。

    领域大语言模型微调训练方法、装置、电子设备及介质

    公开(公告)号:CN119538981A

    公开(公告)日:2025-02-28

    申请号:CN202411627791.0

    申请日:2024-11-14

    Abstract: 本公开涉及一种领域大语言模型微调训练方法、装置、电子设备及介质;方法包括:在微调训练阶段,获取多个领域任务的原始指令数据,构建单项选择任务数据集,单项选择任务数据集包括多个领域任务的多条单项选择任务数据,对单项选择任务数据集中的原始指令题目进行数据扰动操作,识别各个领域任务的关键注意力头,获取关键注意力头索引表,基于关键注意力头索引表,加载目标领域任务对应的目标关键注意力头列表;针对目标领域任务,基于目标关键注意力头列表进行关键注意力头训练,更新目标关键注意力头列表中各个关键注意力头的权重参数,冻结其他网络层的权重参数。

    一种基于大语言模型的统一信息抽取方法、介质及设备

    公开(公告)号:CN117764062B

    公开(公告)日:2025-02-14

    申请号:CN202311671334.7

    申请日:2023-12-07

    Abstract: 本发明提供了一种基于大语言模型的统一信息抽取方法、介质及设备,涉及信息抽取技术领域,包括:获取待处理文本以及目标指令,将待处理文本和目标指令拼接后输入目标信息抽取模型,以得到目标信息抽取模型输出的信息抽取结果。目标信息抽取模型,通过以下步骤得到:获取若干原始文本集,对若干原始文本集中的每一原始文本,进行目标训练样本生成处理,以得到目标训练样本集,根据目标训练数据集对预设大语言模型进行训练,以得到目标信息抽取模型。本发明能够使得目标信息抽取模型具备抽取不同任务类型信息的能力,提高信息抽取的效率,并可以降低模型的发散性。

    一种提高目标模型的安全性的方法、电子设备及存储介质

    公开(公告)号:CN118940299B

    公开(公告)日:2025-01-10

    申请号:CN202411402787.4

    申请日:2024-10-09

    Abstract: 本发明提供了一种提高目标模型的安全性的方法、电子设备及存储介质,涉及模型技术领域,所述方法能够根据指定数据集的总集获取增量权重列表,进一步的获取第四类指令对应的模拟增量权重,根据模拟增量权重对目标模型的权重进行更新,通过更新目标模型的权重来提高目标模型的安全性,可知本发明通过权重组合的方式获取模拟增量权重,根据模拟增量权重对目标模型的权重进行更新,提高目标模型的安全性的同时能够缓解目标模型针对第五类指令的过度防御,第五类指令为与第四类指令有相似的构建方式但不会指导目标模型违反其内部的安全策略并输出不良内容的指令,无需混合大量的通用指令数据,节省了算力时间消耗,对计算机设备的显存要求较低。

Patent Agency Ranking