一种学习文本中事实性知识的模型训练方法

    公开(公告)号:CN118313380A

    公开(公告)日:2024-07-09

    申请号:CN202410418238.X

    申请日:2024-04-09

    Applicant: 南京大学

    Abstract: 本发明公开了一种学习文本中事实性知识的模型训练方法,包括以下步骤:步骤1,根据先验知识从原始训练文本语料数据中选择高置信度的文本信源集合,获得可靠信源文本;步骤2,抽取可靠信源文本中的事实性知识,生成文本支持数据;步骤3,结合文本支持数据和原始训练文本语料数据训练生成式语言模型。该方法能够在文本语料训练过程中提升模型对可靠文本信源的学习效率和学习效果,减少为训练文本语料进行训练排序的人工成本,减少设计持续学习方案所需的人工成本;能够在训练过程中为语言模型注入更多可靠的事实性知识,不局限知识的表述方式,提升生成式语言模型的可靠性。

    一种缩减机器翻译数据库规模的方法、存储介质及电子设备

    公开(公告)号:CN114970570A

    公开(公告)日:2022-08-30

    申请号:CN202210566109.6

    申请日:2022-05-23

    Applicant: 南京大学

    Abstract: 本发明公开了一种缩减机器翻译数据库规模的方法、存储介质及电子设备,所述方法包括以下步骤:构建数据库,通过对数据库中各条目的掌握情况,将所有的条目进行分类;根据局部空间内条目的分布状况,为不同的条目确定知识边界值;分析各条目的种类和对应的知识边界值,将符合条件的条目添加到候选集合中;从候选集合里按照预先设定的比例随机丢弃一定条目,得到最终缩减后的数据库。本发明从通用领域NMT能力的角度出发,基于局部准确性丢弃数据库中的条目,在尽可能缩减数据库规模的同时,也保证了缩减后数据库的质量,可解释性更强;缩减后的数据库可以放入任何kNN‑MT框架中使用,可以对不同语言,不同领域的数据库进行规模缩减。

    一种用于小样本意图识别的文本数据优化方法

    公开(公告)号:CN114564569A

    公开(公告)日:2022-05-31

    申请号:CN202210198697.2

    申请日:2022-03-02

    Applicant: 南京大学

    Abstract: 本发明提供了一种用于小样本意图识别的文本数据优化方法,包括以下步骤:步骤1,构建训练文本数据集;步骤2,对训练任务按照具有的意图数阶梯式地划分级别;步骤3,采样一个批次的小样本意图识别训练样本;步骤4,在基于度量学习的元学习模型上使用采样出的同一批次的两个以上的任务做并行训练;步骤5,判断训练是否终止;步骤6,结束模型训练。本发明可以将并行化训练元学习模型应用在现实场景中小样本意图识别的训练任务意图数不一致的情况。

    一种基于变分自编码器隐变量操纵的受控文本生成方法

    公开(公告)号:CN114492332A

    公开(公告)日:2022-05-13

    申请号:CN202210101812.X

    申请日:2022-01-27

    Applicant: 南京大学

    Abstract: 本发明涉及一种基于变分自编码器隐变量操纵的受控文本生成方法,包括:训练一个用于文本生成的变分自编码器;计算变分自编码器的隐变量与生成文本的属性之间的关联;通过操纵变分自编码器的隐变量生成具有指定属性的文本。本发明提供的受控文本生成方法可以只使用一个训练好的变分自编码器模型控制生成文本的多种不同属性,并且可以使用具有不同属性的文本共同提升生成文本的质量。

    翻译质量测评方法及装置
    7.
    发明公开

    公开(公告)号:CN111985251A

    公开(公告)日:2020-11-24

    申请号:CN201910422427.3

    申请日:2019-05-21

    Applicant: 南京大学

    Abstract: 本公开涉及一种翻译质量测评方法及装置,所述方法包括:接收待测评的目标语言语句和对应的源语言语句;获取所述源语言语句的特征信息和所述目标语言语句的特征信息;对所述源语言语句的特征信息和所述目标语言语句的特征信息进行处理,得到测评信息。利用本公开各实施例,可以提高翻译质量测评结果的可靠性。

    利用外部信息的神经机器翻译系统及翻译系统的训练方法

    公开(公告)号:CN108845994B

    公开(公告)日:2020-05-01

    申请号:CN201810582125.8

    申请日:2018-06-07

    Applicant: 南京大学

    Abstract: 本公开涉及利用外部信息的神经机器翻译系统及翻译系统的训练方法。利用外部信息的神经机器翻译系统包括:源端编码器神经网络,用于接收源端源语言的文字序列作为源端输入;外部信息编码器神经网络,用于接收目标语言的文字序列作为外部信息输入;目标端解码器神经网络,用于根据源端输入和外部信息输入,计算结合外部信息的翻译预测概率分布,根据结合外部信息的翻译预测概率分布生成源端源语言文字序列的译文作为目标端输出。本公开提供的翻译系统,在翻译过程中输入外部信息,为翻译提供参考,有效提高了翻译效率;本公开提供的翻译系统的训练方法,能够适应考虑外部信息的神经机器翻译系统。

    一种自动探索更多参考译文信息的机器翻译优化方法

    公开(公告)号:CN107133223B

    公开(公告)日:2019-06-25

    申请号:CN201710262369.3

    申请日:2017-04-20

    Applicant: 南京大学

    Abstract: 本发明公开了一种自动探索更多参考译文信息的机器翻译优化方法,利用图扩展参考译文的信息,对机器翻译得到的译文进行更充分的评价,同时在利用译文信息扩展的评价方法参与训练过程时,帮助系统更好的进行参数学习。主要步骤如下:利用GIZA++获取源端到目标端的词对齐信息,根据词对齐信息将参考译文切分成短语块,利用源端词序对每一个参考译文构建子图,将若干个子图合并,最终可将并列的若干个参考译文表示成一个参考译文图,将不同的参考译文联系起来,获得更多的信息,最终利用源语言将待评价译文和参考译文图之间联系起来,从图中选出一条与待评价译文最接近的路径进行最终的译文质量评价。

    利用基于词上下文的字嵌入与神经网络的中文分词方法

    公开(公告)号:CN107168955B

    公开(公告)日:2019-06-04

    申请号:CN201710368867.6

    申请日:2017-05-23

    Applicant: 南京大学

    Abstract: 本发明提出了一种利用基于词上下文的字嵌入与神经网络的中文分词方法,在大规模的自动切分数据上学习字嵌入,将学习得到的字嵌入作为神经网络分词模型的输入,可以有效帮助模型学习。具体步骤如下:根据字上下文以及词位标记在大规模自动切分数据上学习字嵌入,将字嵌入作为神经网络分词模型的输入,有效地提高了分词的性能。对比其它基于神经网络的中文分词技术,该方法采用了基于词上下文的字嵌入,有效地将词信息融合进了分词模型,成功的提高了分词任务的准确性。

Patent Agency Ranking