大模型训练方法、装置、设备及可读存储介质

    公开(公告)号:CN117952153A

    公开(公告)日:2024-04-30

    申请号:CN202410201664.8

    申请日:2024-02-23

    Abstract: 本申请公开了一种大模型训练方法、装置、设备及可读存储介质。本方案中,冻结基础大模型的基础参数,可以保留大模型预训练得到的通用能力,基于增量的领域无监督数据,对基础大模型进行参数局部微调,可以将大模型的领域能力存储在第一增量参数中,基于通用有监督数据,对基础大模型进行参数局部微调,可以将大模型的有监督通用能力存储在第二增量参数中。基于第一增量参数、第二增量参数以及基础大模型的基础参数,确定大模型的最终参数,可以使最终的大模型既能保留预训练得到的通用能力,又能学习到领域能力以及有监督通用能力,因此,采用本申请的方式训练大模型,从训练效率和训练得到的模型能力来说,都有一定的提升。

    数据增强方法、装置、电子设备和存储介质

    公开(公告)号:CN117787417A

    公开(公告)日:2024-03-29

    申请号:CN202311869487.2

    申请日:2023-12-28

    Abstract: 本发明提供一种数据增强方法、装置、电子设备和存储介质,涉及自然语言处理技术领域。方法包括:生成目标问答对中的原始问题对应的多个相似问题,以及多个相似问题对应的相似答案;基于上一轮问答对对应的至少一个答案分别与多个相似问题的流畅性度量结果,从至少一个答案中确定出上一轮问答对对应的增强答案,以及从多个相似问题中确定出目标问答对对应的增强问题;将多个相似问题对应的相似答案作为目标问答对对应的多个相似答案,以确定出目标问答对对应的增强答案;基于目标问答对对应的增强问题和目标问答对对应的增强答案,确定目标问答对对应的相似问答对。本发明可以确保数据的流畅性,从而提高数据质量,进而提高多轮对话效果。

    知识问答方法、装置、设备及可读存储介质

    公开(公告)号:CN119415644A

    公开(公告)日:2025-02-11

    申请号:CN202410399719.0

    申请日:2024-04-03

    Abstract: 本申请公开了一种知识问答方法、装置、设备及可读存储介质,本方案中,预先构建问题文本对应的摘要文本库,摘要文本库中包括问题文本所属领域各知识文本对应的摘要文本,针对每个知识文本,知识文本对应的摘要文本为长度小于知识文本,语义信息与知识文本一致的文本,在获取用户输入的问题文本之后,采用大语言模型外挂摘要文本库的方式实现知识问答,生成问题文本对应的最终答案。该方案通过保留知识文本的语义信息,并对知识文本的长度进行缩减,使得知识问答过程中既能很好的利用知识文本的信息,又能避免知识文本较长导致的知识问答效果较差的问题,从而提升知识问答效果。

    社交网络数据质量分析方法、装置、设备及可读存储介质

    公开(公告)号:CN118210792A

    公开(公告)日:2024-06-18

    申请号:CN202410399726.0

    申请日:2024-04-03

    Abstract: 本申请公开了一种社交网络数据质量分析方法、装置、设备及可读存储介质,在获取待分析的社交网络数据之后,确定社交网络数据在语义完整性指标、语义随机性指标以及语义重复性指标中的至少两个语义性能指标的评分;多个语义性能指标包括;对社交网络数据在多个语义性能指标的评分进行融合,得到社交网络数据的综合质量评分;基于综合质量评分,确定社交网络数据是否为低质量社交网络数据。本方案中,可以利用社交网络数据的语义信息对社交网络数据的语义性能指标进行度量,能够准确评估社交网络数据的质量,进而能够从海量社交网络数据中有效确定出高质量的社交网络数据。

Patent Agency Ranking