-
公开(公告)号:CN120031043A
公开(公告)日:2025-05-23
申请号:CN202510190545.1
申请日:2025-02-20
Applicant: 北京邮电大学
Abstract: 本发明公开了一种基于文本‑图谱联合推理与双向交互的情感分析方法,包括:基于预训练的语言模型处理待分析文本,获得文本嵌入;基于外部知识图谱,并生成知识图谱嵌入;构建多层融合模块,将文本嵌入与知识图谱嵌入输入至多层融合模块中,融合模块对文本嵌入与知识图谱嵌入进行迭代更新,获得文本嵌入和知识图谱嵌入的联合表征;其中,多层融合模块包括若干层,每层包括语言模型层、图神经网络层与融合层;基于文本嵌入和知识图谱嵌入的联合表征进行情感分析。本发明通过联合更新学习与融合机制提升了文本与外部知识的融合效果,提高了情感分析任务的性能,使模型在面对多样化语境和复杂知识结构时具有更强的泛化能力。
-
公开(公告)号:CN118820927A
公开(公告)日:2024-10-22
申请号:CN202410816275.6
申请日:2024-06-24
Applicant: 北京邮电大学 , 中国人民解放军91054部队
IPC: G06F18/2413 , G06F16/35 , G06F18/23213 , G06F18/214 , G06N3/0442 , G06N3/0464 , G06N3/0455 , G06N3/084 , G06N5/04
Abstract: 本申请的实施例揭示了一种基于KNN检索增强的文本分类方法及装置、设备、介质。方法包括:构建函数f(·),响应于输入的训练集,利用所述函数f(·)将所述训练数据集的文本序列映射到固定长度向量表示形式,将所有文本序列的向量表示和对应的标签存储于训练数据集中;构建文本增强模块,利用所述文本增强模块对所述训练数据集进行增强得到增强后的训练数据集;构建K‑最近邻分类器,利用所述增强后的训练数据集对所述K‑最近邻分类器进行训练,以训练好的K‑最近邻分类器实现文本分类。本发明显著提高了多种深度学习模型(如CNN、LSTM、BERT和RoBERTa)在文本分类任务上的性能,同时无需额外训练即可利用训练数据集信息增强模型的泛化能力和分类准确性。
-
公开(公告)号:CN116205220B
公开(公告)日:2024-02-06
申请号:CN202310438459.9
申请日:2023-04-23
Applicant: 北京邮电大学
IPC: G06F40/284 , G06N3/0455 , G06N3/042 , G06N3/048 , G06N3/0499 , G06N3/096
Abstract: 本发明公开一种触发词和论元的抽取方法、系统、设备及介质,涉及自然语言处理技术领域。所述方法包括:获取目标文本;所述目标文本是由自然语言的字符数据构成的文本;对所述目标文本进行预处理,得到事件信息;所述事件信息包括文本段落及对应的事件类型和事件属性;利用事件抽取模型,对所述事件信息的触发词和论元进行抽取,得到事件分析结构;所述事件分析结构是由触发词及对应的字符数据、论元及对应的字符数据构成的;所述事件抽取模型包括依次连接的多头注意力模块和T5预训练模型;所述多头注意力模块包括依次连接的编码器和解码器。本发明能够提高事件抽取检测的精确率。
-
公开(公告)号:CN111461004B
公开(公告)日:2023-08-22
申请号:CN202010246814.9
申请日:2020-03-31
Applicant: 北京邮电大学
IPC: G06V20/40 , G06V10/764 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本申请公开了一种基于图注意力神经网络的事件检测方法,包括:获取输入句子的图结构数据;将图结构数据的每个该节点输入到预设的图注意力神经网络以更新该节点的特征向量;根据更新后的每个节点的特征向量判定句子的触发词;更新每个节点的特征向量包括:计算当前节点在句子中的权重,以及当前节点与当前节点的邻居节点之间的相关系数权重;根据当前节点在句子中的权重,以及当前节点与邻居节点之间的相关系数权重,计算当前节点赋予给邻居节点的注意力分数;根据注意力分数更新当前节点的特征向量。本方案在利用邻居节点的特征聚合更新中心节点的过程中,更加全面的考虑了中心节点对其邻居节点赋予的权重参数问题,大大提高了事件检测的精确率。
-
公开(公告)号:CN116561340A
公开(公告)日:2023-08-08
申请号:CN202310524720.7
申请日:2023-05-10
Applicant: 北京邮电大学
Abstract: 本发明属于神经网络领域,提供一种利用图神经网络局部信息的知识图谱推理的分布式方法,通过切点方案加载图文件并通过Gemini负载均衡到不同机器上;在每台机器上执行prepare逻辑,找到整个子图的外围一跳邻居信息并构建mirror模式对象;将所述信息用于GAS训练。本发明本发明使GAS框架可以用于分布式环境中。GAS作为一个性能优异的分布式图计算框架,使GAS推广到分布式环境,可以把GAS的加速能力推广到大规模图中。
-
公开(公告)号:CN116485501A
公开(公告)日:2023-07-25
申请号:CN202310475414.9
申请日:2023-04-28
Applicant: 北京邮电大学
IPC: G06Q30/0601 , G06N3/0442 , G06N3/042 , G06N3/084 , G06N3/0464
Abstract: 本发明提供一种基于图嵌入与注意力机制的图神经网络会话推荐方法,首先将数据集中的会话序列转化为会话图结构;将会话图结构作为门控图神经网络的输入,进行物品特征提取,得到物品特征向量;结合注意力机制和LSTM,对用户的兴趣进行建模,得到用户对于每个物品的兴趣;最后结合用户兴趣和物品特征向量计算每个项目的得分,生成最终的预测结果。本发明通过构建全局图提取了单一会话图不能提供的额外信息辅助物品特征向量的构建,并创新性的提出使用LSTM解决传统会话图构建过程中的问题,优化用户兴趣建模过程。相比之前的会话推荐算法,在没有增加很多训练时间成本的前提下,大大提高了推荐准确率。
-
公开(公告)号:CN111461004A
公开(公告)日:2020-07-28
申请号:CN202010246814.9
申请日:2020-03-31
Applicant: 北京邮电大学
Abstract: 本申请公开了一种基于图注意力神经网络的事件检测方法,包括:获取输入句子的图结构数据;将图结构数据的每个该节点输入到预设的图注意力神经网络以更新该节点的特征向量;根据更新后的每个节点的特征向量判定句子的触发词;更新每个节点的特征向量包括:计算当前节点在句子中的权重,以及当前节点与当前节点的邻居节点之间的相关系数权重;根据当前节点在句子中的权重,以及当前节点与邻居节点之间的相关系数权重,计算当前节点赋予给邻居节点的注意力分数;根据注意力分数更新当前节点的特征向量。本方案在利用邻居节点的特征聚合更新中心节点的过程中,更加全面的考虑了中心节点对其邻居节点赋予的权重参数问题,大大提高了事件检测的精确率。
-
公开(公告)号:CN111460089A
公开(公告)日:2020-07-28
申请号:CN202010100382.0
申请日:2020-02-18
Applicant: 北京邮电大学
IPC: G06F16/33 , G06K9/62 , G06N3/04 , G06F16/338
Abstract: 本申请公开了一种多段落阅读理解候选答案排序方法和装置,所述方法包括:获取在多段落阅读理解中抽取到的所有候选答案和每个候选答案出自的句子;获取每个候选答案的第一特征值;其中,所述第一特征值为利用训练好的文本蕴含关系模型得到的每个候选答案的文本蕴含对的分数;获取每个候选答案的至少一个第二特征值;将所述每个候选答案的第一特征值和第二特征值输入到训练好的神经网络中,得到每个候选答案的得分;根据所述每个候选答案的得分对所述候选答案进行排序。通过本方法能够有效避免已经找到的正确答案被丢弃的情况,从而极大地提高了多段落阅读理解的效果。
-
公开(公告)号:CN111460089B
公开(公告)日:2023-08-25
申请号:CN202010100382.0
申请日:2020-02-18
Applicant: 北京邮电大学
IPC: G06F16/33 , G06F18/214 , G06N3/0464 , G06F16/338
Abstract: 本申请公开了一种多段落阅读理解候选答案排序方法和装置,所述方法包括:获取在多段落阅读理解中抽取到的所有候选答案和每个候选答案出自的句子;获取每个候选答案的第一特征值;其中,所述第一特征值为利用训练好的文本蕴含关系模型得到的每个候选答案的文本蕴含对的分数;获取每个候选答案的至少一个第二特征值;将所述每个候选答案的第一特征值和第二特征值输入到训练好的神经网络中,得到每个候选答案的得分;根据所述每个候选答案的得分对所述候选答案进行排序。通过本方法能够有效避免已经找到的正确答案被丢弃的情况,从而极大地提高了多段落阅读理解的效果。
-
-
-
-
-
-
-
-