基于数据增强的低资源神经机器翻译方法及系统

    公开(公告)号:CN113673259B

    公开(公告)日:2024-09-17

    申请号:CN202110857215.5

    申请日:2021-07-28

    Applicant: 清华大学

    Abstract: 本发明提供一种基于数据增强的低资源神经机器翻译方法及系统,其中方法包括:确定待翻译的真实数据;将所述待翻译的真实数据输入至神经机器翻译模型,得到所述神经机器翻译模型输出的神经机器翻译结果;其中,所述神经机器翻译模型是基于包括低资源语言对上的平行语料和单语语料在内的原始真实数据进行数据增强后对低资源神经机器翻译模型训练后得到的。本发明实施例实现了将稀疏数据应用到低资源神经机器翻译的神经机器翻译模型,能够高效、准确地解决低资源神经机器翻译中的资源匮乏问题。

    一种信息处理方法及设备
    103.
    发明公开

    公开(公告)号:CN118614012A

    公开(公告)日:2024-09-06

    申请号:CN202280088010.8

    申请日:2022-04-02

    Abstract: 本申请实施例提供一种信息处理方法及设备,该方法包括:第一设备对第一信道状态信息CSI张量进行重构,得到第二CSI张量,所述第一CSI张量表征所述第一设备与第二设备之间的至少两条路径中各路径的信号在频域上的信道频率响应;所述第一设备对所述第二CSI张量进行典型或平行因子CP分解,得到至少两个分解张量;所述第一设备基于所述至少两个分解张量,确定所述至少两条路径中各路径的传输参数。

    一种基于知识蒸馏的无监督机器翻译质量预估方法和装置

    公开(公告)号:CN114936567B

    公开(公告)日:2024-06-11

    申请号:CN202210588770.7

    申请日:2022-05-26

    Applicant: 清华大学

    Abstract: 本发明涉及一种基于知识蒸馏的无监督机器翻译质量预估方法和装置,包括:将大/小规模多语言机器翻译译文质量预估模型作为教师模型/学生模型,收集各预设语言对下的双语数据;其中,双语数据由相应语言对下的原文和机器翻译译文构成;利用教师模型,对每一个双语数据进行知识蒸馏,得到每一个双语数据中机器翻译译文的翻译质量;基于每一个双语数据以及每一个双语数据中机器翻译译文的翻译质量构建学生模型;借助学生模型实现对目标机器翻译译文的翻译质量预估。本发明利用教师模型对每一个双语数据进行蒸馏,以蒸馏后的数据训练学生模型,以使学生模型具备高性能且能在计算和存储资源受限的条件下部署。

    基于纵向联邦学习和互信息的大模型调用方法和装置

    公开(公告)号:CN118013563A

    公开(公告)日:2024-05-10

    申请号:CN202311808801.6

    申请日:2023-12-26

    Abstract: 本发明涉及数据安全领域,提供一种基于纵向联邦学习和互信息的大模型调用方法和装置,所述方法包括:基于纵向联邦学习技术,将目标大模型拆分为第一子模型和第二子模型;将客户端的原始数据在所述第一子模型中进行计算,以得到所述第一子模型输出的混淆中间数据;所述混淆中间数据是利用混淆原始数据在第一子模型中进行计算得到的;或者,所述混淆中间数据是利用中间数据进行互信息模型和损失函数正则项保护处理得到的;所述第二子模型基于所述混淆中间数据在明文条件下计算输出值,并基于所述输出值向所述大模型发出调用指令。解决了现有技术中大模型调用时数据安全性较低的问题,提高了大模型调用过程中的数据安全性。

    面向软件抽象的控制流实现系统
    106.
    发明公开

    公开(公告)号:CN118012496A

    公开(公告)日:2024-05-10

    申请号:CN202410245386.6

    申请日:2024-03-04

    Abstract: 本发明公开了一种面向软件抽象的控制流实现系统,该系统包括:面向软件抽象的粗粒度可重构系统和编译工具链;编译工具链用于将源代码进行编译,形成软件抽象,并映射至面向软件抽象的粗粒度可重构系统,形成输入数据和/或数据流向指令;面向软件抽象的粗粒度可重构系统包括:处理单元用于:按照数据流向指令和处理单元内的计算指令对输入数据进行逻辑运算处理,按照数据流向指令发送输出数据和输出谓词;谓词控制模块用于:按照数据选择指令和谓词控制模块内的指令进行谓词计算,按照数据流向指令发送输出谓词;控制流片上网络用于传输输出谓词;数据流片上网络用于传输输出数据。本发明可以支持各种不同类型的复杂的控制流。

    基于联邦知识蒸馏学习的知识解耦反演攻击方法及装置

    公开(公告)号:CN117614641A

    公开(公告)日:2024-02-27

    申请号:CN202311348080.5

    申请日:2023-10-17

    Inventor: 刘洋 普艳红

    Abstract: 本发明提供一种联邦知识蒸馏学习的知识解耦反演攻击方法及装置,其中的方法包括:获取模型输入数据,模型输入数据包括目标公开数据在目标客户端模型的第一logits和目标公开数据在服务器端模型的第二logits;将模型输入数据输入至预先训练的反演神经网络模型,得到目标客户端的私有数据,反演神经网络模型通过公开数据集和客户端‑服务器端配对的logits构成的训练样本数据集进行训练优化得到。该方法通过预先训练的反演神经网络模型重构目标客户端的私有数据,此过程无需梯度,且将私有数据与公共知识完全解耦,实现了客户端私有信息与仅在公共数据上学习的知识的“解耦”,可为联邦知识蒸馏学习算法的安全性提供进一步的指导。

    一种电力电子器件加速老化测试电路、装置、方法和系统

    公开(公告)号:CN117110740A

    公开(公告)日:2023-11-24

    申请号:CN202310983647.X

    申请日:2023-08-04

    Abstract: 本发明公开了一种电力电子器件加速老化测试电路、装置、方法和系统,电路包括三个并联的半桥电路和两个负载电抗,每个半桥电路包括两个串联的电力电子器件,每个电力电子器件反并联二极管,其中一个半桥电路的中点连接两个负载电抗的一端,另外两个半桥电路的中点分别连接所述两个负载电抗的另一端。能够产生多级电流应力,产生di/dt、dv/dt、暂态过电流、过电压、门极驱动耐受等现有加速老化测试中不存在而实际工况中存在的应力,能够解决测试工况与实际工况差异大、应力类型不符的问题,使测试更接近真实工况,提高了测试结果的可信度,适用于多种器件的老化加速测试,便于进行不同应力水平和相同应力水平的测试,测试效率高。

    基于自我认知的模型推理方法、装置及电子设备

    公开(公告)号:CN116822633A

    公开(公告)日:2023-09-29

    申请号:CN202311111582.6

    申请日:2023-08-31

    Applicant: 清华大学

    Abstract: 本发明涉及人工智技术领域,提供一种基于自我认知的模型推理方法、装置及电子设备,其中的方法包括:接收用户端的待解答问题;基于待解答问题,获取语言大模型的自我认知结果;根据自我认知结果,推理得到待解答问题的答案。该方法通过引入语言大模型的自我认知,根据语言大模型的自我认知情况,采用不同的推理模式对用户端的待解答问题进行推理,避免了单独通过语言大模型或检索增强进行推理而带来的模型推理准确度不高的情况,能够根据语言大模型的实际推理情况,适用最合适的推理模式,得到更准确的推理结果,有效提升了模型推理的准确度,也进一步提升了用户端的体验感。

Patent Agency Ranking