-
公开(公告)号:CN113935459A
公开(公告)日:2022-01-14
申请号:CN202111115698.8
申请日:2021-09-23
Applicant: 广西师范大学
Abstract: 本发明公开了一种基于BERT的深度神经网络模型的自动评卷方法,在编码答案文本的微调BERT模型之上,构建一个语义细化层来细化BERT输出的语义,为BERT模型的隐藏状态提取相关的局部上下文。其次,引入一个多头注意力来融合从BERT输出中提取的全局上下文和局部上下文,作为学生答案和参考答案的句子对的最终表示。再者,本发明为简答题自动评卷提出了一种三重热点的策略,它将标准交叉熵损失函数中的计算标签从单独热点黄金分布改进为三重热点黄金分布。通过本发明实现端到端的简答题自动阅卷,以更有效的方法解决简答题自动评卷问题。
-
公开(公告)号:CN111723572A
公开(公告)日:2020-09-29
申请号:CN202010534862.8
申请日:2020-06-12
Applicant: 广西师范大学
Abstract: 本发明公开一种基于CNN卷积层和BiLSTM的中文短文本相关性度量方法,通过孪生神经网络作为框架,使用Word2vec训练的中文字向量作为输入,首先会经过去掉池化层的CNN提取到文本的n-gram信息,用于模拟中文文本的分词过程;然后输入到BiLSTM网络中继续提取不同粒度的文本特征,更准确的对文本语义进行编码。最终将文本向量化,通过计算两个向量的距离来表示相关性。本发明采用去掉池化层的CNN提取文本的n-gram信息,可有效避免池化层所造成的特征损失,在中文短文本的相关性度量上具有较好的准确性,且在计算效率上较快,不要求很高的配置。
-
公开(公告)号:CN113935459B
公开(公告)日:2022-11-04
申请号:CN202111115698.8
申请日:2021-09-23
Applicant: 广西师范大学
Abstract: 本发明公开了一种基于BERT的深度神经网络模型的自动评卷方法,在编码答案文本的微调BERT模型之上,构建一个语义细化层来细化BERT输出的语义,为BERT模型的隐藏状态提取相关的局部上下文。其次,引入一个多头注意力来融合从BERT输出中提取的全局上下文和局部上下文,作为学生答案和参考答案的句子对的最终表示。再者,本发明为简答题自动评卷提出了一种三重热点的策略,它将标准交叉熵损失函数中的计算标签从单独热点黄金分布改进为三重热点黄金分布。通过本发明实现端到端的简答题自动阅卷,以更有效的方法解决简答题自动评卷问题。
-
公开(公告)号:CN111723572B
公开(公告)日:2021-11-19
申请号:CN202010534862.8
申请日:2020-06-12
Applicant: 广西师范大学
Abstract: 本发明公开一种基于CNN卷积层和BiLSTM的中文短文本相关性度量方法,通过孪生神经网络作为框架,使用Word2vec训练的中文字向量作为输入,首先会经过去掉池化层的CNN提取到文本的n‑gram信息,用于模拟中文文本的分词过程;然后输入到BiLSTM网络中继续提取不同粒度的文本特征,更准确的对文本语义进行编码。最终将文本向量化,通过计算两个向量的距离来表示相关性。本发明采用去掉池化层的CNN提取文本的n‑gram信息,可有效避免池化层所造成的特征损失,在中文短文本的相关性度量上具有较好的准确性,且在计算效率上较快,不要求很高的配置。
-
-
-