一种大语言模型微调和Adapter融合方法及装置

    公开(公告)号:CN117708307B

    公开(公告)日:2024-05-14

    申请号:CN202410170139.4

    申请日:2024-02-06

    Abstract: 本发明公开了一种大语言模型微调和Adapter融合方法及装置,涉及深度学习领域。用于解决现有多模态数据集的构建因需要人工进行数据收集导致消耗大且数据质量较差的问题。该方法包括:从设定网络平台上收集多个问答数据集和对话数据集;对问答数据集和对话数据集分别进行LoRA‑adapter微调,依次得到问答大语言模型、问答负对数似然损失函数、对话大语言模型和对话负对数似然损失函数;得到问答数据集和对话数据集在理想状态下的理想损失函数、理想融合权重和第一理想参数;得到问答LoRA‑adapter的最佳参数、对话LoRA‑adapter的最佳参数和最佳融合参数;根据问答LoRA‑adapter的最佳参数、对话LoRA‑adapter的最佳参数和所述最佳融合参数得到通用LORA‑adapter。

    一种大语言模型微调和Adapter融合方法及装置

    公开(公告)号:CN117708307A

    公开(公告)日:2024-03-15

    申请号:CN202410170139.4

    申请日:2024-02-06

    Abstract: 本发明公开了一种大语言模型微调和Adapter融合方法及装置,涉及深度学习领域。用于解决现有多模态数据集的构建因需要人工进行数据收集导致消耗大且数据质量较差的问题。该方法包括:从设定网络平台上收集多个问答数据集和对话数据集;对问答数据集和对话数据集分别进行LoRA‑adapter微调,依次得到问答大语言模型、问答负对数似然损失函数、对话大语言模型和对话负对数似然损失函数;得到问答数据集和对话数据集在理想状态下的理想损失函数、理想融合权重和第一理想参数;得到问答LoRA‑adapter的最佳参数、对话LoRA‑adapter的最佳参数和最佳融合参数;根据问答LoRA‑adapter的最佳参数、对话LoRA‑adapter的最佳参数和所述最佳融合参数得到通用LORA‑adapter。

Patent Agency Ranking