-
公开(公告)号:CN115712760B
公开(公告)日:2023-04-21
申请号:CN202211510437.0
申请日:2022-11-29
Applicant: 哈尔滨理工大学
IPC: G06F16/903 , G06F40/126 , G06F40/30 , G06N3/0464 , G06N3/048 , G06N3/0499 , G06N3/08
Abstract: 本发明公开了一种基于BERT模型和深层等长卷积神经网络的二进制代码摘要生成方法及系统,涉及代码摘要生成技术领域。本发明的技术要点包括:将一段程序经过编译和链接过程生成可执行程序,提取其中的二进制代码序列和二进制函数名序列;对二进制函数名序列进行编码,获得函数名表示向量;将二进制代码序列输入BERT预训练语言模型,获取二进制代码序列全局上下文信息特征;利用多个卷积核对二进制代码序列全局上下文信息特征进行局部语义特征提取;将二进制代码序列全局特征和局部语义特征输入预训练的深层等长卷积神经网络,获取二进制代码序列的表示向量;将函数名表示向量和二进制代码序列的表示向量输入预训练的前馈神经网络,获取二进制代码摘要。
-
公开(公告)号:CN115712760A
公开(公告)日:2023-02-24
申请号:CN202211510437.0
申请日:2022-11-29
Applicant: 哈尔滨理工大学
IPC: G06F16/903 , G06F40/126 , G06F40/30 , G06N3/0464 , G06N3/048 , G06N3/0499 , G06N3/08
Abstract: 本发明公开了一种基于BERT模型和深层等长卷积神经网络的二进制代码摘要生成方法及系统,涉及代码摘要生成技术领域。本发明的技术要点包括:将一段程序经过编译和链接过程生成可执行程序,提取其中的二进制代码序列和二进制函数名序列;对二进制函数名序列进行编码,获得函数名表示向量;将二进制代码序列输入BERT预训练语言模型,获取二进制代码序列全局上下文信息特征;利用多个卷积核对二进制代码序列全局上下文信息特征进行局部语义特征提取;将二进制代码序列全局特征和局部语义特征输入预训练的深层等长卷积神经网络,获取二进制代码序列的表示向量;将函数名表示向量和二进制代码序列的表示向量输入预训练的前馈神经网络,获取二进制代码摘要。
-