-
公开(公告)号:CN119067194A
公开(公告)日:2024-12-03
申请号:CN202411094316.1
申请日:2024-08-09
Applicant: 电子科技大学
IPC: G06N3/096 , G06N3/0495 , G06F18/213 , G06F18/24
Abstract: 一种基于动态多教师模型和结构化关系的知识蒸馏方法,主要内容为一种新型的知识蒸馏方法,通过多个教师模型训练学生模型,并根据教师模型的性能效果为教师模型分配动态的权重来指导学生模型的训练;同时引入结构化关系来辅助训练,通过让学生模型学习教师模型样本输出的空间关系,来提高训练效果。本发明相对于传统的多教师模型,解决了训练学习单一性,盲目性,平均性的特点,根据教师模型优劣进行动态调整学习权重,具有更好的训练效果;同时引入了样本空间关系作为知识进行学习,解决了传统知识蒸馏方法仅依赖响应学习知识的单调性,使学生模型学习到更丰富的知识,提高了学生模型性能。
-
公开(公告)号:CN119149734A
公开(公告)日:2024-12-17
申请号:CN202411126644.5
申请日:2024-08-16
Applicant: 电子科技大学
IPC: G06F16/35 , G06F40/30 , G06F40/289 , G06N3/042 , G06N3/0464
Abstract: 为解决现有技术中根据顺序文本序列难以捕捉与目标方面词相关上下文能力的问题,本发明提供一种结合语法树和图网络的方面级情感分析方法,包括训练过程和预测过程;在训练过程,首先获取文本样本数据并进行预处理;接着,通过BERT编码器对文本数据进行词向量提取;再通过计算方面感知注意力、自注意力、句法依赖树和语义组成树构成掩码矩阵;将词向量和掩码矩阵输入到图神经网络中并将最终的输出作为情感极性预测结果,采用梯度下降法训练模型参数,获得训练好的BERT编码器模型和图神经网络。应用在预测过程,通过已经学习到通过解析语法树结构能力的图神经网络对从文本提取出的词向量进行预测,最终获得目标方面词的情感极性。
-