-
公开(公告)号:CN116821452B
公开(公告)日:2023-11-14
申请号:CN202311086468.2
申请日:2023-08-28
Applicant: 南京邮电大学
IPC: G06F16/906 , G06F16/901 , G06F18/24 , G06N3/0455 , G06N3/0464 , G06N3/048 , G06N3/08
Abstract: 本发明属于图机器学习、图表示学习技术领域,提供了一种图节点分类模型训练方法、图节点分类方法,具体涉及一种基于图注意力和改进Transformer图节点分类模型训练方法、图节点分类方法,具体将基于二级掩码的图注意力机制及结构强化学习、层间残差等优化策略融入Transformer框架,构建一种改进的Transformer模型以提高其对图数据的建模精度,同时兼顾小规模和中规模图数据集的节点分类任务,实现分类性能的全面提升。
-
公开(公告)号:CN116821452A
公开(公告)日:2023-09-29
申请号:CN202311086468.2
申请日:2023-08-28
Applicant: 南京邮电大学
IPC: G06F16/906 , G06F16/901 , G06F18/24 , G06N3/0455 , G06N3/0464 , G06N3/048 , G06N3/08
Abstract: 本发明属于图机器学习、图表示学习技术领域,提供了一种图节点分类模型训练方法、图节点分类方法,具体涉及一种基于图注意力和改进Transformer图节点分类模型训练方法、图节点分类方法,具体将基于二级掩码的图注意力机制及结构强化学习、层间残差等优化策略融入Transformer框架,构建一种改进的Transformer模型以提高其对图数据的建模精度,同时兼顾小规模和中规模图数据集的节点分类任务,实现分类性能的全面提升。
-