-
公开(公告)号:CN110569338B
公开(公告)日:2022-05-03
申请号:CN201910660759.5
申请日:2019-07-22
Applicant: 中国科学院信息工程研究所
IPC: G06F16/332 , G06N3/04 , G06N3/08
Abstract: 本发明公开了一种生成式对话系统解码器训练方法及解码方法。本方法为:1)对于问句编码集合中的每一问句编码,使用前向、后向神经网络对该问句编码进行预测分别得到一向量表示结果;2)计算前向、后向神经网络每一步预测结果的差异,作为生成式对话系统编码器的损失函数;3)计算前向、后向神经网络每一步状态的差异,作为二者的局部差异;4)计算前向、后向神经网络所生成向量表示结果的句子向量表示,并计算两句子向量表示的差异,作为二者的整体性差异;5)将局部差异和整体性差异作为惩罚项函数加入损失函数中,得到整体惩罚函数作为生成式对话系统编码器的损失函数;6)采用训练后的前向神经网络对问句编码进行预测,生成回复内容。
-
公开(公告)号:CN114049234A
公开(公告)日:2022-02-15
申请号:CN202111305784.5
申请日:2021-11-05
Applicant: 中国科学院信息工程研究所
IPC: G06Q50/00 , G06N3/04 , G06N3/08 , G06K9/62 , G06F16/9536
Abstract: 本发明涉及基于用户行为与社交关系的用户成长值打分方法和系统。该方法的步骤包括:根据用户原始数据学习不同时间级别的用户行为时序特征,并根据用户发表的内容的影响力得到内容影响力特征,通过将内容影响力特征与用户行为时序特征交互得到融合时序行为的用户特征;使用注意力机制学习用户的不同邻居用户的权值,进而得到用户的权值矩阵;将融合时序行为的用户特征和用户的权值矩阵输入图卷积神经网络,得到用户成长值。本发明解决了社交关系在用户特征学习中利用不充分的问题,提高了用户成长值打分的准确率。
-
公开(公告)号:CN112380835A
公开(公告)日:2021-02-19
申请号:CN202011078614.3
申请日:2020-10-10
Applicant: 中国科学院信息工程研究所
IPC: G06F40/205 , G06F40/295 , G06F40/30 , G06N3/04
Abstract: 本发明提供一种融合实体和句子推理信息的问题答案提取方法及电子装置,包括:将一问题与若干目标文档拼接,输入预训练语言模型,得到问题表示Q与文档上下文表示C;获取融合文档信息的问题表示Q0与融合问题信息的文档表示C0;依据问题表示Q(t‑1)与文档表示Ct‑1,获取实体图节点集合E(t‑1)与句子图节点集合 并采用图注意力网络对实体图与句子图更新,获取问题表示Q(t)与文档表示Ct;对实体图节点集合E(t)与句子图节点集合 融合并与文档表示Ct交互;依据推理更新后上下文表示C′(t),获取问题答案预测结果。本发明提出引入句子节点的图神经网络,通过门机制将实体表示与句子表示融合,利用句子级别推理信息弥补实体推理信息的缺失,提升推理阅读理解任务的性能。
-
公开(公告)号:CN112380326A
公开(公告)日:2021-02-19
申请号:CN202011079727.5
申请日:2020-10-10
Applicant: 中国科学院信息工程研究所
IPC: G06F16/332 , G06F16/36 , G06N3/04
Abstract: 本发明提供一种基于多层感知的问题答案抽取方法,其步骤包括:将一问题与若干目标文档拼接,输入到预训练语言模型中,得到问题的表示Q与目标文档的上下文表示P,将表示Q与上下文表示P交互,得到文档相关的问题表示u与融合问题信息的文档表示h;对问题表示u进行多层感知分类,获取问题的推理类型,并根据推理类型、问题表示u、文档表示h及通过表示Q生成的子问题ct,得到所述问题在目标文档中的答案注意力分布,其中t为生成子问题的次数;依据答案注意力分布,获取该问题的答案预测结果。本发明以子问题拆分的形式递进回答问题,引入推理类别分类器控制拆分,对问题的回答进行共享,提升推理阅读理解效果。
-
公开(公告)号:CN109829499B
公开(公告)日:2020-10-27
申请号:CN201910097903.9
申请日:2019-01-31
Applicant: 中国科学院信息工程研究所
Abstract: 本发明涉及一种基于同一特征空间的图文数据融合情感分类方法和装置。该方法的步骤包括:1)使用自动编码机提取多模态数据中图片的压缩特征表达;2)使用CNN‑DCNN网络提取多模态数据中文字的压缩特征表达;3)将步骤1)、2)得到的图片特征和文本特征映射到同一个特征向量空间,得到图文整体特征;4)通过分类器对步骤3)得到的图文整体特征进行分类,得到情感分类结果。本发明将图、文特征映射到同一个空间下,再对整体信息进行情感分类,可以同时捕捉到微博等多模态数据的图、文数据之间语义相关性和情感相关性。
-
公开(公告)号:CN120069059A
公开(公告)日:2025-05-30
申请号:CN202510016701.2
申请日:2025-01-06
Applicant: 中国科学院信息工程研究所
IPC: G06N5/04 , G06N3/0455 , G06N3/08 , G06F18/25 , G06F18/214
Abstract: 本发明公开一种基于模块融合的大模型能力扩展方法及系统,属于人工智能技术领域。本发明通过引入LoRA模块和融合模块,优化了大规模预训练模型在引入新任务时的能力扩展,保持了较高的微调和推理效率;通过任务数据的抽样重放,有效缓解了不同任务数据质量差异带来的问题,降低了适应新任务的难度。此外,由于本发明设计的模型结构不含有非线性层,因此多个LoRA的合并等效于参数矩阵的乘积运算,该过程可以在不增加大量计算开销的情况下完成能力扩展。
-
公开(公告)号:CN112347756B
公开(公告)日:2023-12-22
申请号:CN202011051087.7
申请日:2020-09-29
Applicant: 中国科学院信息工程研究所
IPC: G06F40/205 , G06F40/216 , G06N3/0442 , G06N3/045
Abstract: 本发明涉及一种基于序列化证据抽取的推理阅读理解方法及系统。该方法训练基于序列化证据抽取的阅读理解模型,该模型包括编码层、推理交互层、证据预测层、答案预测层;利用训练完成的基于序列化证据抽取的阅读理解模型,输入上下文文本和问题文本,输出答案的类型、答案文本以及相关证据句子的集合。本发明通过GRU与注意力机制根据问题句子来序列化抽取证据文档中的句子作为证据句子的预测结果,将证据句子之间的相关关系考虑进去,逐步推理得到相关证据,同时覆盖问题中的重要信息。本发明从原来的独立预测每个证据句子变为序列化抽取证据句子,从而建模证据之间的相关性认证,从而提高了网络的安全可靠性。
-
公开(公告)号:CN114048395A
公开(公告)日:2022-02-15
申请号:CN202111305785.X
申请日:2021-11-05
Applicant: 中国科学院信息工程研究所
IPC: G06F16/9536 , G06Q50/00 , G06F40/194 , G06F40/30 , G06N3/04 , G06N3/08
Abstract: 本发明涉及一种基于时间感知与关键信息抽取的用户转发预测方法和系统。该方法的步骤包括:根据用户与目标推文的原作者的全部历史发布内容的相关性,以及用户与原作者发布内容所关注的主题随时间迁移的特性,得到融合用户及原作者的全局和层级历史内容后的目标推文特征表示;使用Topk‑Mask机制动态地抽取用户的朋友圈信息关键词,使用Tweet‑Mask机制学习用户的每条朋友圈推文的权重,并将两种机制输出的结果合并,得到用户的朋友圈特征表示;根据融合用户及原作者的全局和层级历史内容后的目标推文特征表示,以及用户的朋友圈特征表示,预测用户是否会对目标推文进行转发。本发明能够有效提高用户转发预测的准确率。
-
公开(公告)号:CN110569338A
公开(公告)日:2019-12-13
申请号:CN201910660759.5
申请日:2019-07-22
Applicant: 中国科学院信息工程研究所
IPC: G06F16/332 , G06N3/04 , G06N3/08
Abstract: 本发明公开了一种生成式对话系统解码器训练方法及解码方法。本方法为:1)对于问句编码集合中的每一问句编码,使用前向、后向神经网络对该问句编码进行预测分别得到一向量表示结果;2)计算前向、后向神经网络每一步预测结果的差异,作为生成式对话系统编码器的损失函数;3)计算前向、后向神经网络每一步状态的差异,作为二者的局部差异;4)计算前向、后向神经网络所生成向量表示结果的句子向量表示,并计算两句子向量表示的差异,作为二者的整体性差异;5)将局部差异和整体性差异作为惩罚项函数加入损失函数中,得到整体惩罚函数作为生成式对话系统编码器的损失函数;6)采用训练后的前向神经网络对问句编码进行预测,生成回复内容。
-
公开(公告)号:CN113127599B
公开(公告)日:2022-07-12
申请号:CN202110230676.X
申请日:2021-03-02
Applicant: 中国科学院信息工程研究所
Abstract: 本发明公开了一种层级对齐结构的问答立场检测方法及装置,包括:分别将问题文本与回答文本转换为问题序列与回答序列;拼接问题序列与回答序列,得到问题回答序列;将问题序列、回答序列及问题回答序列输入层次对齐模型,得到问答立场检测结果。本发明的层次对齐模型,先使用了BERT预训练模型得到粗粒度的立场表示,然后从QA对中的问题和回答两方面进行了概念级别的目标对齐和证据级别的信息对齐,得到了由粗到精的立场表示,从而在问答立场检测任务上可以获得更高的准确率和F1值。
-
-
-
-
-
-
-
-
-