短文本分类方法及装置、存储介质、计算设备

    公开(公告)号:CN118277846A

    公开(公告)日:2024-07-02

    申请号:CN202410205775.6

    申请日:2024-02-23

    Abstract: 本申请提供了一种短文本分类方法及装置、存储介质、计算设备,该短文本分类方法包括:获取待分类短文本以及体系化标签;计算待分类短文本与体系化标签中各个标签的语义相似度,并根据语义相似度获得与待分类短文本语义最接近的顶层标签候选集以及分类标签候选集;根据顶层标签候选集构建针对顶层标签的第一提示词,并将待分类短文本、第一提示词以及顶层标签候选集输入至大语言模型;根据分类标签候选集以及顶层标签分类结果构建针对分类标签的第二提示词,并将待分类短文本、第二提示词以及分类标签候选集输入至大语言模型,以输出分类结果。本申请提供了一种提升短文本分类准确性的方案。

    多选项问答方法及装置、计算机可读存储介质、终端

    公开(公告)号:CN118051588A

    公开(公告)日:2024-05-17

    申请号:CN202410176197.8

    申请日:2024-02-07

    Abstract: 一种多选项问答方法及装置、计算机可读存储介质、终端,方法包括:确定多个知识库和第一拼接文本,第一拼接文本是对问题与其全部候选项拼接得到;对每个知识库,通过向量相似度匹配筛选出与第一拼接文本相似度排序靠前的多个匹配句子,并拼接得到该知识库对应的第二拼接文本;对问题与该知识库对应的第二拼接文本进行拼接,得到第三拼接文本,并基于第三拼接文本以及各个候选项预测得到每个候选项相对于该知识库的正确概率值;采用各个知识库的置信度作为权重,将每个候选项相对于各个知识库的正确概率值进行加权运算,得到该候选项的加权概率值;将加权概率值最大的候选项,作为问题的答案。上述方案可以提高多选项问答的准确度和可信度。

    一种控制模型输出结构化数据的方法

    公开(公告)号:CN117933234A

    公开(公告)日:2024-04-26

    申请号:CN202410095774.0

    申请日:2024-01-23

    Abstract: 本发明提供一种控制模型输出结构化数据的方法,包括:获取要生成文本的结构和内容要求;基于生成文本的结构和内容要求,构建语法自动机和Tokenizer前缀树;初始化字符级解析器;基于所述语法自动机、Tokenizer前缀树及字符解析器,采用自回归语言模型,生成候选token;基于所述候选token,采用智能token过滤机制,过滤不合法token,选择合法token;基于所述合法token,更新语法自动机状态;基于所述合法token,生成文本片段;验证和生成所述文本片段,得到最终文本。针对现有技术在生成遵循严格格式或结构规则的文本时存在格式不准确、灵活性差、自动化程度不高等诸多限制,导致生成的文本需要大量的人工校对和修改,影响生产效率和成本控制等问题。本发明通过结合语法自动机或类似机制,旨在提供一种提高自回归语言模型输出内容的可解析化程度的方法,确保在生成过程中每个token的选择都符合预定义的格式规则,从而解决了生成文本在格式正确性上的问题。

    基于用户反馈的大语言模型对话生成方法及装置、计算机可读存储介质、终端

    公开(公告)号:CN117573818A

    公开(公告)日:2024-02-20

    申请号:CN202311378499.5

    申请日:2023-10-23

    Inventor: 蔡华 宣晓华

    Abstract: 一种基于用户反馈的大语言模型对话生成方法及装置、计算机可读存储介质、终端,所述方法包括:接收当前会话轮次输入的问题;将所述问题输入第一预设大语言模型,得到第一预测结果,其中,所述第一预设大语言模型至少用于根据输入的问题预测用户的初级反馈信息;根据所述问题、所述第一预测结果和预设记忆库生成输入数据,其中,所述预设记忆库存储有用户对历史上至少一次会话轮次的对话的纠正反馈;将所述输入数据输入第二预设大语言模型,得到第二预测结果,其中,所述第二预设大语言模型用于根据输入数据预测对应当前会话轮次的增强对话回复以及对所述问题的理解。本发明可以使得对话系统变得更加智能,具有知识实时性和个性化。

    一种基于大语言模型的高效任务型对话构建方法、系统和程序产品

    公开(公告)号:CN120086332A

    公开(公告)日:2025-06-03

    申请号:CN202510148266.9

    申请日:2025-02-10

    Abstract: 本发明涉及大语言模型技术领域,具体为一种基于大语言模型的高效任务型对话构建方法,该方法通过将用户的输入话术和当前的实体信息共同更新到当前的Prompt中;Prompt更新后大语言模型会根据Prompt给出特定的输出,接着对于大语言模型的输出至Response进行后处理,根据后处理的结果更新实体信息,并判断是否继续进行对话;当判断不需要继续对话时,会在用户的下一轮对话中进行对话收尾与结束会话并输出内容。通过将大语言模型与任务型对话系统融合,可以快速搭建一个任务型对话流程,不需要模型训练与人工标注,也不需要预先定义特定的流程树,整个搭建过程速度快并且可调整性强,同时整个对话流程会更加流畅。

    基于大语言模型的文本生成方法和系统

    公开(公告)号:CN119962510A

    公开(公告)日:2025-05-09

    申请号:CN202510034044.4

    申请日:2025-01-09

    Abstract: 本公开提供了一种基于大语言模型的文本生成方法和系统,通过响应于用户输入的需求信息,将所述需求信息和提示词模板输入至大语言模型,生成与所述需求信息对应的目标目录,所述提示词模板包括引导信息和初始目录;获取知识库中与所述目标目录对应的文本信息,其中,所述文本信息中嵌入有非文本元素;将所述文本信息和所述目标目录输入至大语言模型,生成与所述目标目录格式一致的目标文本;将所述目标文本中的非文本元素替换为与所述非文本元素对应的非文本对象。本公开生成的目标文本中包括有非文本元素,实现了多模态数据的查询与文本内容生成,生成的目标文本既符合目标目录的格式要求又具有高度准确性,提升了用户的满意度。

    基于自记忆增强的检索文本生成方法、系统、产品及设备

    公开(公告)号:CN119646156A

    公开(公告)日:2025-03-18

    申请号:CN202411761150.4

    申请日:2024-12-03

    Abstract: 本发明公开了一种基于自记忆增强的检索文本生成方法、系统、产品及设备。所述检索文本生成方法包括:接收检索任务并获取大语言模型的知识检索结果;分析所述知识检索结果以得到对应的知识缺口;所述知识缺口包括所述大语言模型未完成检索任务时缺失的信息;以所述检索任务、所述知识缺口和上一次的知识检索结果作为下一次检索的输入,并进行迭代直到知识检索结果不存在知识缺口。该检索文本生成方法,通过使每次输出作为下一轮检索的输入进行迭代,反复优化生成内容,逐步填补知识缺口,确保每轮生成都能利用最新的知识和信息,使得生成文本的质量显著提高,进而显著提高了生成内容的完整性和连贯性,特别适用于需要多跳推理的复杂任务。

    基于知识消歧的知识图谱扩充方法、系统、设备及介质

    公开(公告)号:CN118333152A

    公开(公告)日:2024-07-12

    申请号:CN202410350501.6

    申请日:2024-03-26

    Abstract: 本发明公开了一种基于知识消歧的知识图谱扩充方法、系统、设备及介质,涉及计算机技术领域。该方法包括:获取目标文本数据和待扩充知识图谱,基于知识抽取模型对目标文本数据进行知识抽取得到目标知识数据,将目标知识数据进行聚类消歧处理,获得目标聚类簇,选取目标聚类簇的聚类中心为目标知识节点,将目标知识节点与待扩充知识图谱建立关联。本发明通过对自然语言文本进行知识抽取,并对该知识进行消歧聚类处理,避免语义重复、知识体系冗余,同时还能减小计算量,选取聚类中心作为新的知识节点扩充到知识图谱中,提升知识图谱的完备性,提高其在实际应用中的效能,整个知识图谱扩充流程完备,可信度高、可拓展性强。

Patent Agency Ranking