-
公开(公告)号:CN118377902A
公开(公告)日:2024-07-23
申请号:CN202410558192.1
申请日:2024-05-08
Applicant: 广西师范大学
IPC: G06F16/35 , G06F40/30 , G06N3/0464 , G06N3/0499 , G06N3/084
Abstract: 本发明公开了一种基于BERT神经网络的慕课帖子分类方法,能够快速区分出慕课论坛中的紧急帖子和非紧急帖子,涉及人工智能与智慧教育的交叉领域。首先,使用BERT模型的输出作为动态词向量,使同一个单词在不同的慕课帖子的上下文中表示不同的语义,以便下游网络能更精确的提取出文本特征。其次,利用增强CNN和并行CNN对BERT的输出进行局部语义提取,再利用Bi‑GRU进行深度局部特征提取,生成局部分类向量;同时,利用双层逐点前馈网络和多头自注意力对BERT的输出进行全局语义细化,生成全局分类向量。最终,组合全局和局部分类向量,获得更具表现力的分类向量,提高紧急帖子分类的F1分数。
-
公开(公告)号:CN118260426A
公开(公告)日:2024-06-28
申请号:CN202410449131.1
申请日:2024-04-15
Applicant: 广西师范大学
IPC: G06F16/35 , G06F16/332 , G06F16/33 , G06F40/194 , G06N3/048 , G06N3/047 , G06Q10/04 , G06Q50/18
Abstract: 本发明公开了一种基于案例四元组的法律判决预测对比学习方法,能够更有效地完成法律判决预测中法律条款、罪名指控和刑期预测三个子任务,涉及人工智能的自然语言识别处理技术在法律智能系统中的应用。对于每个原始判决样本,分别根据法律条款和罪名指控构建两个案例四元组,其中一个反例来自于与原始样本相同的章节,另一个反例来自不同的章节,使得模型可以同时学习同一章节和不同章节中案例事实的差异性,从而增强其泛化能力。此外,对于案例四元组对比学习的损失函数,提出了一种通过额外的关系约束来自适应确定损失阈值的方法。
-
公开(公告)号:CN117151108A
公开(公告)日:2023-12-01
申请号:CN202310873139.6
申请日:2023-07-17
Applicant: 广西师范大学
Abstract: 本发明公开了一种基于BERT神经网络与多方面语义学习的关系抽取方法,涉及人工智能中的自然语言识别处理领域。首先,为在BERT模型上移植传统的分段卷积神经网络技术,提出了一个基于BERT的关系抽取多方面语义学习框架,包括左语义学习、右语义学习和全局语义学。其次,在各种语义的隐藏表示中,分别将BERT分类符所对应的隐藏状态提取出来,形成各种语义的分类向量。进而,提出了一种基于残差、门控和多头注意力机制的多方面语义融合方法,生成了语义丰富的分类向量。最后,提出了一种在BERT微调的回溯过程中,固定BERT的词嵌入层和位置嵌入层的方法,以更有效的方法解决自然语言识别处理中的关系抽取问题。
-
公开(公告)号:CN117390282A
公开(公告)日:2024-01-12
申请号:CN202311444968.9
申请日:2023-11-02
Applicant: 广西师范大学
IPC: G06F16/9535 , G06F16/33 , G06F16/335 , G06Q50/20 , G06F40/30 , G06N3/0455 , G06N3/0442 , G06N3/084
Abstract: 本发明公开了一种综合题目语义和难度的试题推荐神经网络模型,涉及人工智能与智慧教育的交叉领域。首先,提出一种由BERT预训练语言模型、多头自注意力和双向长短期记忆网络组成的神经网络模型,综合处理目标试题与题库试题的题目语义与难度,得到综合题目语义与难度的试题编码。其次,通过试题编码的平均池化向量,求得综合考虑题目语义和难度的目标试题与题库试题的相似度,进而通过试题相似度排序,得到试题推荐列表。最后,提出了一套将通用语义相似性语料改进为所述神经网络模型训练语料的方法,并提出了一种基于均方误差的回归损失函数,以更有效的方式解决试题推荐问题。
-
公开(公告)号:CN106502981A
公开(公告)日:2017-03-15
申请号:CN201610881953.2
申请日:2016-10-09
Applicant: 广西师范大学
IPC: G06F17/27
Abstract: 本发明公开了一种基于词性、句法和词典的比喻修辞句自动分析与判定方法,以随机输入的句子作为处理对象,通过以下步骤:(1)分词与词性标注;(2)基于句法分析的修饰成分的删除;3)基于简单从句的多余成分删除;(4)基于比喻词的多余成分删除;(5)通过依存关系缩小候选本体与候选喻体的范围;(6)根据根节点对应词所构成的依存关系,筛选候选本体与候选喻体;7)按简单比喻句的抽取规则抽取出候选本、喻体(;8)基于词典的比喻修饰手法的自动判定,实现比喻修辞句的自动分析与判定,自动化程度高,判断准确率高,可广泛应用于自然语言深度理解、机器翻译与计算机辅助教学等各个领域的比喻修辞自动分析与判定系统中。
-
公开(公告)号:CN118797554A
公开(公告)日:2024-10-18
申请号:CN202410775917.2
申请日:2024-06-17
Applicant: 广西师范大学
IPC: G06F18/25 , G06F18/20 , G06N3/0442 , G06N3/0455
Abstract: 本发明公开了一种基于多重融合特征组合的多模态情感分析方法,涉及人工智能中多模态识别处理领域。首先,改进了跨模态多头注意力模型的并行结构,提出了一种串行跨模态情感分析交互方法,该方法采用由多头注意力和GRU网络组成的两层交互网络,并在第一层交互网络中以文本作为查询,以音频作为关键字和值,然后将第一层的交互结果作为第二层的查询与视觉进行交互。其次,提出了一种多模态情感分析的加权融合方法,将视频和音频特征与文本特征对齐。最后,通过三种不同的融合方法从不同角度实现多模态情感特征融合与关联挖掘,加强三种融合方法之间的联系与互补。
-
公开(公告)号:CN118585787A
公开(公告)日:2024-09-03
申请号:CN202410639729.7
申请日:2024-05-22
Applicant: 广西师范大学
IPC: G06F18/213 , G06N3/0455 , G06N3/0464 , G06F18/24 , G06F18/25
Abstract: 本发明公开了一种基于BERT语言模型与深度局部特征的关系抽取方法,涉及人工智能中自然语言识别处理领域。首先,使用BERT语言模型作为编码器,使同一个单词能在不同的句子上下文中表示不同的语义,以便下游网络能更精确地提取出文本特征。其次,利用一个由多头自注意力和多层卷积神经网络组成的下游网络对BERT编码进行深度局部特征抽取。多头的自注意力可以更充分理解上下文信息,多层卷积神经网络能够获取从简单到复杂的深层局部特征,构建出更加丰富和层次化的句子局部特征表示。最终,设计出基于门控机制的特征向量融合层,通过设计更新门和重置门来衡量不同特征向量的贡献度,生成精准的分类向量。
-
公开(公告)号:CN118171659A
公开(公告)日:2024-06-11
申请号:CN202410327205.4
申请日:2024-03-21
Applicant: 广西师范大学
IPC: G06F40/30 , G06N3/045 , G06N3/0442 , G06F40/211 , G06F16/35 , G06N3/0464
Abstract: 本发明公开了一种基于BERT和关系图注意力网络的方面级情感分析多语义融合方法,涉及人工智能中的自然语言处理领域。首先,充分利用BERT神经网络模型基于大型通用语料库的预训练,有效解决了方面级情感分析语料库较小的问题。其次,提出了一种以方面目标为根的重塑句法依赖树的方法,忽略那些与方面目标情感无关的依赖关系。最后,提出了一个基于BERT和关系图注意神经网络的方面级情感分析多语义融合模型,该模型由词性语义、句法依赖关系和依赖关系头语义提取模块,以及一个对句法依赖重塑树进行编码的关系图注意力网络及多语义融合模块组成,有效提高了方面级情感分类精度。
-
公开(公告)号:CN116578672A
公开(公告)日:2023-08-11
申请号:CN202310559347.9
申请日:2023-05-17
Applicant: 广西师范大学
IPC: G06F16/33 , G06F16/332 , G06F18/25 , G06N3/04 , G06N3/08
Abstract: 本发明公开了一种基于ERNIE‑GEN神经网络的阅读理解优化模型,涉及人工智能中的自然语言识别处理领域。首先,在ERNIE‑GEN神经网络模型的预训练阶段,将原始ERNIE‑GEN神经网络单一的左序预训练模式,扩展为多语序预训练模式,迫使ERNIE‑GEN神经网络编码器适应多种输入语序,达到增强编码器适应能力的目的,同时可有效缓解ERNIE‑GEN神经网络在阅读理解任务中的暴露偏差问题;其次,在阅读理解任务微调阶段,使用门控机制,将通过ERNIE‑GEN神经网络模型生成的上下文解码状态与问题解码状态进行融合,达到突出关键语义的目的,以更有效的方式解决阅读理解问题。
-
公开(公告)号:CN116522903A
公开(公告)日:2023-08-01
申请号:CN202310495683.1
申请日:2023-05-05
Applicant: 广西师范大学
IPC: G06F40/211 , G06F40/289 , G06F16/33 , G06F18/2415 , G06F18/214 , G06F18/22 , G06N3/04 , G06N3/08 , G06N5/04
Abstract: 本发明公开了一种基于T5神经网络和标签重构的文本相似度生成模型,可显著扩大传统分类模型中文本相似度的预测区间,更加接近文本相似度任务的回归特性,涉及人工智能中的自然语言识别处理领域。首先,提出了一种标签重构的T5神经网络的解码方法,将T5神经网络词汇表中唯一ID标识符的相似度标签重构为整数ID、标点ID与小数ID三部分,以提高相似度的推理精度。其次,提出了一种将文本相似度标签三倍分解的相似度样本数据增强方法,可显著扩展模型的训练语料。再者,采用教师强迫机制来训练模型,以缩短模型训练的收敛时间,以更有效的方式解决文本相似度生成问题。
-
-
-
-
-
-
-
-
-