一种文本相似度匹配方法、装置和计算机设备

    公开(公告)号:CN116610964A

    公开(公告)日:2023-08-18

    申请号:CN202310893532.1

    申请日:2023-07-20

    Abstract: 本申请涉及一种文本相似度匹配方法、装置和计算机设备。所述方法包括:利用大模型服务接口获取到的信息,构建基础问答数据集;对基础问答数据集进行相关性扩展,生成与基础问答数据集相关的扩展内容;利用预设的综合评价指标,对扩展内容进行评估,将评估结果满足预设条件的扩展内容并入基础问答数据集,生成完备问答数据集;根据完备问答数据集的数据结构,选取具备对应网络架构的问答模型,并采用梯度下降法对问答模型的参数进行更新,直至问答模型收敛,生成用于文本相似度匹配的完备问答模型;基于完备问答模型,进行文本相似度匹配。采用本方法能够解决现有的基于文本相似度匹配的智能问答技术存在回答问题的效率和准确率低的问题。

    基于目标生成式回应语言模型的回应方法和装置

    公开(公告)号:CN116303974B

    公开(公告)日:2023-08-01

    申请号:CN202310486966.X

    申请日:2023-05-04

    Abstract: 本申请涉及一种基于目标生成式回应语言模型的回应方法和装置。其中,该方法包括:基于教育设备中的提示数据集,训练得到初始生成式提示语言模型和初始生成式回应语言模型;并利用评分模型对二者的预测结果进行评分;基于对评分值的加权计算结果,通过强化学习和对抗学习进一步训练初始生成式提示语言模型和初始生成式回应语言模型,得到目标生成式回应语言模型;将教育设备采集的待测文本数据输入目标生成式回应语言模型,目标生成式回应语言模型将待测文本数据与对话数据进行拼接,得到相应的回应。采用本方法能生成多样的新提示,并加强生成式提示语言模型和生成式回应语言模型之间的交互,从而进一步改善生成式语言模型的意料外行为问题。

    一种针对未配对数据集的图像生成方法及装置

    公开(公告)号:CN114758035A

    公开(公告)日:2022-07-15

    申请号:CN202210661703.3

    申请日:2022-06-13

    Abstract: 本发明公开了一种针对未配对数据集的图像生成方法及装置,该方法包括:对第一模型和第二模型进行改进,其中所述第二模型包括第一子模型和第二子模型;将两组内部具有相同数据分布的未配对数据集作为改进后的第一模型的输入,训练改进后的第一模型,并通过改进后的第一模型训练完成后输出的两组配对数据集分别训练改进后的第一子模型和第二子模型;获取未配对数据集;将所述未配对数据集输入训练后的第一模型后,得到所述第一模型生成的第一生成数据集和第二生成数据集;将所述第一生成数据集和第二生成数据集分别输入训练后的第一子模型和第二子模型,并将所述第一子模型和第二子模型生成的第三生成数据集和第四生成数据集作为最终生成结果。

    文本生成方法、装置、计算机设备和存储介质

    公开(公告)号:CN116992875B

    公开(公告)日:2024-01-09

    申请号:CN202311263225.1

    申请日:2023-09-27

    Abstract: 本申请涉及一种文本生成方法、装置、计算机设备和存储介质。所述方法包括:基于关键词数据集训练初始文本生成模型,所述关键词数据集包括参考关键词以及参考文本,将所述参考关键词输入所述初始文本生成模型,得到初始模型生成文本,将所述初始模型生成文本以及初始拼接文本作为关键词中文对比数据集,基于所述关键词中文对比数据集和标准中文对比数据集训练文本生成奖励模型,基于所述初始文本生成模型和文本生成奖励模型确定目标文本生成模型,将候选关键词输入所述目标文本生成模型,得到目标生成文本。不仅保证了关键词一定出现在生成文本中,还提高了生成文本的语义准确性。

    一种语言模型轻量化方法、装置、计算机设备和存储介质

    公开(公告)号:CN116991986B

    公开(公告)日:2024-01-09

    申请号:CN202311269260.4

    申请日:2023-09-28

    Abstract: 本申请涉及一种语言模型轻量化方法、装置、计算机设备和存储介质。所述方法包括:对初始语言模型的注意力层的可学习参数进行聚类,得到可学习参数的分区;对各个分区进行组合,得到初始语言模型的所有裁剪方式;基于初始语言模型的注意力层的各个功能在各个裁剪方式下的波动率,得到各个功能的对应分区;剔除或量化与待处理的任务所对应的功能相关性低的可学习参数,得到待训练的语言模型的可学习参数;基于待训练的语言模型的可学习参数,利用梯度下降法对可学习参数进行训练,直到收敛,得到完备的轻量化语言模型。采用本方法能够解决了现有的语言模型无法利用较少的计算资源来实现高精度的任务处理的问题。

    基于目标生成式回应语言模型的回应方法和装置

    公开(公告)号:CN116303974A

    公开(公告)日:2023-06-23

    申请号:CN202310486966.X

    申请日:2023-05-04

    Abstract: 本申请涉及一种基于目标生成式回应语言模型的回应方法和装置。其中,该方法包括:基于教育设备中的提示数据集,训练得到初始生成式提示语言模型和初始生成式回应语言模型;并利用评分模型对二者的预测结果进行评分;基于对评分值的加权计算结果,通过强化学习和对抗学习进一步训练初始生成式提示语言模型和初始生成式回应语言模型,得到目标生成式回应语言模型;将教育设备采集的待测文本数据输入目标生成式回应语言模型,目标生成式回应语言模型将待测文本数据与对话数据进行拼接,得到相应的回应。采用本方法能生成多样的新提示,并加强生成式提示语言模型和生成式回应语言模型之间的交互,从而进一步改善生成式语言模型的意料外行为问题。

    一种服务器集群资源的统一调度方法和装置

    公开(公告)号:CN115952008B

    公开(公告)日:2023-06-16

    申请号:CN202310247734.9

    申请日:2023-03-15

    Abstract: 本发明公开了一种服务器集群资源的统一调度方法和装置,该方法针对服务器资源调度的增量实时调度和全量碎片整理,合并简化了调度方法,实现了方法的复用;该方法包括以下步骤:获取当前时刻服务器集群状态的快照;根据快照,获取集群中的所有在运行的服务器集合,并根据优先级进行降序排列;依次遍历所排序的服务器集合,对每台服务器,通过弹射链和蒙特卡洛树搜索方法,依次判断所部署的容器是否可迁移至其它低优先级的服务器,并执行相应操作。本发明能获得完整的迁移路径和过程态,对服务器集群的资源进行整理,提高了资源的使用率,优化集群性能,降低功耗,助力实现数据中心的低碳节能、绿色环保的追求。

    一种文本相似度匹配方法、装置和计算机设备

    公开(公告)号:CN116610964B

    公开(公告)日:2023-09-26

    申请号:CN202310893532.1

    申请日:2023-07-20

    Abstract: 本申请涉及一种文本相似度匹配方法、装置和计算机设备。所述方法包括:利用大模型服务接口获取到的信息,构建基础问答数据集;对基础问答数据集进行相关性扩展,生成与基础问答数据集相关的扩展内容;利用预设的综合评价指标,对扩展内容进行评估,将评估结果满足预设条件的扩展内容并入基础问答数据集,生成完备问答数据集;根据完备问答数据集的数据结构,选取具备对应网络架构的问答模型,并采用梯度下降法对问答模型的参数进行更新,直至问答模型收敛,生成用于文本相似度匹配的完备问答模型;基于完备问答模型,进行文本相似度匹配。采用本方法能够解决现有的基于文本相似度匹配的智能问答技术存在回答问题的效率和准确率低的问题。

    基于聚类描述的小样本实体识别方法、装置和计算机设备

    公开(公告)号:CN116757216A

    公开(公告)日:2023-09-15

    申请号:CN202311024641.6

    申请日:2023-08-15

    Abstract: 本申请涉及一种基于聚类描述的小样本实体识别方法、装置和计算机设备,通过获取待识别文本数据;将所述待识别文本数据输入实体边界定位模型,得到所述待识别文本数据中所有实体的实体边界;将所述待识别文本数据以及所述实体边界输入实体聚类模型,得到多个类别的实体;基于多个类别的所述实体,确定每个类别的类别标识以及对应实体。上述基于聚类描述的小样本实体识别方法,基于实体边界定位模型和实体聚类模型,能够精准识别实体边界,并对实体进行精准分类,明显提高了实体识别和分类效率,并且由于人工介入的减少,也会一定程度提高实体标记的准确性。

Patent Agency Ranking