一种基于大模型的插件调用方法、电子设备及存储介质

    公开(公告)号:CN119759451A

    公开(公告)日:2025-04-04

    申请号:CN202411952368.8

    申请日:2024-12-27

    Abstract: 本发明涉及大语言模型技术领域,特别是涉及一种基于大模型的插件调用方法、电子设备及存储介质,所述方法包括:将预设插件关键词库中的预设插件关键词与用户输入的目标请求文本中的任一请求关键词进行匹配,根据匹配上的预设插件直接确定出目标插件或确定出若干备选插件,而当请求关键词未匹配上预设插件时则将所有预设插件作为备选插件,再通过给定大语言模型从若干个备选插件中筛选出目标插件,从所述目标请求文本中提取目标参数信息并发送至目标插件得到插件反馈结果,当插件反馈结果的判断结果为符合预设要求时,将插件反馈结果作为请求反馈文本;本发明能够提高对话系统中的目标插件选取的准确率,使选择出的目标插件更符合用户的需求。

    大模型的优化训练、数据处理方法、装置、设备和介质

    公开(公告)号:CN119761417A

    公开(公告)日:2025-04-04

    申请号:CN202411808552.5

    申请日:2024-12-10

    Abstract: 本申请涉及数据处理技术领域,尤其提供一种大模型的优化训练、数据处理方法、装置、设备和存储介质,首先,针对每条样本指令,将样本指令输入基础模型,得到样本指令的N条候选答案,利用M个不同的奖励模型分别对候选答案进行评分,得到候选答案的M个评分结果;然后对候选答案的M个评分结果进行加权计算,得到候选答案的偏好值;基于候选答案的偏好值从N条候选答案中选取第一答案和第二答案;最后构建偏好样本数据集,偏好样本数据集包括偏好样本,偏好样本包括样本指令以及样本指令对应的第一答案和第二答案,偏好样本数据集用于采用离线方式对基础模型进行优化训练。以减少了对巨量计算资源的消耗,使大模型偏好对齐训练任务更易实施。

Patent Agency Ranking