基于联邦学习的蛋白质-配体亲和力预测方法和装置

    公开(公告)号:CN117558339A

    公开(公告)日:2024-02-13

    申请号:CN202311321162.0

    申请日:2023-10-12

    摘要: 本发明提供一种基于联邦学习的蛋白质‑配体亲和力预测方法和装置,所述方法包括:获取待预测的蛋白质输入数据和配体输入数据;将所述蛋白质输入数据和配体输入数据输入预先训练的亲和力预测模型中,得到亲和力预测模型输出的预测结果;所述联邦学习框架包括多个用于训练亲和力预测子模型的本地端,以及用于将多个所述亲和力预测子模型进行模型聚合的服务器端;所述亲和力预测子模型是利用本地端预存的样本数据集进行训练得到的,所述亲和力预测模型是在所述服务器端利用各亲和力预测子模型的模型参数进行加权聚合后得到的。解决了现有技术中联邦学习模型预测和训练过程中数据安全性较低的技术问题,在模型训练和使用的过程中降低数据泄漏风险。

    多语种的语句识别方法、装置和设备及计算机存储介质

    公开(公告)号:CN117391065A

    公开(公告)日:2024-01-12

    申请号:CN202310897197.2

    申请日:2023-07-20

    摘要: 本申请提供了一种多语种的语句识别方法、装置和设备及计算机存储介质,涉及计算机技术领域,用于降低大规模的多语种的语句识别模型的训练成本。该方法包括:基于包含新语种对的平行语料的样本集合,参考基准模型的模型结构,训练获得相应的旁路模型;基于样本集合,对基准模型进行训练,获得目标模型;在每轮训练中:将旁路模型中目标网络层使用的第一转换参数集,与基准模型中对应的目标网络层使用的第二转换参数集进行合并,获得融合转换参数集;基于融合转换参数集以及预设的初始融合权重,对输入至合并后的基准模型的平行语料进行语句转换,并基于获得的预测转换结果与平行语料中的真实转换结果之间的第一损失值,进行模型参数调整。

    基于规则累积的模型推理方法、装置及电子设备

    公开(公告)号:CN117057430B

    公开(公告)日:2024-01-09

    申请号:CN202311289797.7

    申请日:2023-10-08

    申请人: 清华大学

    发明人: 杨泽远 李鹏 刘洋

    IPC分类号: G06N5/04 G06F16/23 G06F16/907

    摘要: 本发明涉及人工智能领域,提供一种基于规则累积的模型推理方法、装置及电子设备,其中的方法包括:获取目标任务对应的模型推理结果;获取对模型推理结果的用户端反馈,用户端反馈包括模型推理结果对应的推理标签,以及目标任务对应的正确答案;基于用户端反馈,在预设规则库中检索目标任务对应的推理规则;根据推理规则,推理得到目标任务的正确推理结果。该方法通过额外提供规则引导,在无需微调的情况下,引导大语言模型逐渐适应当前场景的特定需求,实现了轻量级的模型优化,克服了现有模型推理方法需要耗费巨大时间/资源成本,且推理结果准确度不高的缺陷,提升了模型推理结果的准确度。

    被测器件的擎住电流和维持电流的测试平台、方法及系统

    公开(公告)号:CN117192316A

    公开(公告)日:2023-12-08

    申请号:CN202310981386.8

    申请日:2023-08-04

    IPC分类号: G01R31/26

    摘要: 本公开实施例涉及电力电子器件测试技术领域,公开了被测器件的擎住电流和维持电流的测试平台、方法及系统,所述方法包括:设定测试电压信号IDUT*;测量被测器件DUT的电压信号IDUT;对所述测试电压信号IDUT*与电压信号IDUT进行处理;对处理后的测试电压信号IDUT*与电压信号IDUT进行比较,形成比较结果;根据所述比较结果生成控制开关管结构Q1‑D3、开关管结构Q2‑D4和被测器件DUT开通/关断的触发信号;根据所述触发信号控制开关管结构Q1‑D3、开关管结构Q2‑D4和被测器件DUT开通/关断,实现维持电流和擎住电流的测试。本公开的示例性实施例,解决了不易对IGCT器件的维持电流、擎住电流进行测量问题,满足了IGCT器件型式试验的需求。

    基于规则累积的模型推理方法、装置及电子设备

    公开(公告)号:CN117057430A

    公开(公告)日:2023-11-14

    申请号:CN202311289797.7

    申请日:2023-10-08

    申请人: 清华大学

    发明人: 杨泽远 李鹏 刘洋

    IPC分类号: G06N5/04 G06F16/23 G06F16/907

    摘要: 本发明涉及人工智能领域,提供一种基于规则累积的模型推理方法、装置及电子设备,其中的方法包括:获取目标任务对应的模型推理结果;获取对模型推理结果的用户端反馈,用户端反馈包括模型推理结果对应的推理标签,以及目标任务对应的正确答案;基于用户端反馈,在预设规则库中检索目标任务对应的推理规则;根据推理规则,推理得到目标任务的正确推理结果。该方法通过额外提供规则引导,在无需微调的情况下,引导大语言模型逐渐适应当前场景的特定需求,实现了轻量级的模型优化,克服了现有模型推理方法需要耗费巨大时间/资源成本,且推理结果准确度不高的缺陷,提升了模型推理结果的准确度。

    机器翻译模型生成方法和装置
    59.
    发明公开

    公开(公告)号:CN116522963A

    公开(公告)日:2023-08-01

    申请号:CN202310369491.6

    申请日:2023-04-07

    申请人: 清华大学

    摘要: 本发明提供一种机器翻译模型生成方法和装置,包括:获取训练数据;基于预存的深度神经网络利用训练数据训练得到机器翻译模型;机器翻译模型用于将待翻译文本翻译为文本译文;机器翻译模型包括存储器增强适配器层、第一存储器和第二存储器;存储器增强适配器层用于在第一存储器和/或第二存储器中检索信息并加以利用;第一存储器用于保存训练数据经反向翻译及前向计算处理后得到的源语言数据;第二存储器用于保存训练数据经反向翻译及前向计算处理后得到的目标语言数据。本发明把训练数据以模型可以接受的形式保存,执行翻译任务时从中读取信息对模型进行辅助,实现兼顾较低的算法时间复杂度和较好的模型表现的同时,适应多种翻译场景的效果。

    多源端机器翻译方法及装置
    60.
    发明公开

    公开(公告)号:CN116187352A

    公开(公告)日:2023-05-30

    申请号:CN202211612530.2

    申请日:2022-12-14

    申请人: 清华大学

    摘要: 本发明提供一种多源端机器翻译方法及装置,其中的方法包括:基于预先训练的多源机器翻译模型,根据待翻译的多源端语句,结合每一源端对应的预先训练的编码器附加参数,获取编码器输入数据;根据所述多源机器翻译模型中的编‑解码器,对所述编码器输入数据依次进行编码处理和解码处理,得到目标端语句。该方法通过在多源机器翻译模型的编‑解码器中添加编码器附加参数和解码器对应的附加前缀参数,训练时该多源机器翻译模型中的其他参数被固定,只需要对编码器附加参数和附加前缀参数进行训练,能够有效减少训练的参数量,降低训练成本,并且,通过提升附加参数模块的可组合性,能有效提升多源机器翻译的翻译效果。