-
公开(公告)号:CN119398094A
公开(公告)日:2025-02-07
申请号:CN202411303419.4
申请日:2024-09-18
Applicant: 杭州高新区(滨江)区块链与数据安全研究院 , 浙江大学
IPC: G06N3/042 , G06N3/0455 , G06N3/0499 , G06N3/084
Abstract: 本申请涉及一种图神经网络训练方法、装置、设备和可读存储介质。所述方法包括:获取图结构的多个训练边集和待训练的图神经网络;确定每个训练边集各条边中每个节点的邻居节点集;通过确定邻居节点集中每个邻居节点的邻居位置编码信息和结构位置编码信息,以及对节点间的共同邻居进行扩展,得到共同邻居编码信息;根据结构位置编码信息和共同邻居编码信息对图神经网络进行训练,在满足预设训练条件的情况下,结束训练得到训练好的图神经网络;获取待处理图结构,将待处理的图结构输入至训练好的图神经网络,得到待处理图结构的预测结果。采用本方法能够提高预测的准确性。
-
公开(公告)号:CN117875391A
公开(公告)日:2024-04-12
申请号:CN202410039382.2
申请日:2024-01-10
Applicant: 上海浙江大学高等研究院
IPC: G06N3/08 , G06N3/042 , G06N3/044 , G06N3/045 , G06F18/241 , G06F18/214 , G06Q50/00
Abstract: 本发明公开了一种基于分布式的连续时间动态图神经网络训练方法及系统,包括以下步骤:将用于训练的动态社交网络图数据进行子图划分、批次划分、校准以及采样,得到若干个批次的动态社交网络采样子图数据,由每个节点的获取历史时序嵌入和历史交互消息得到每个节点的时序嵌入,当完成一个批次训练过程后,利用每个节点的时序嵌入以及动态社交网络采样子图数据的边特征进行聚合计算,得到每个节点的更新交互消息。本发明的方法通过提供图划分存储、分布式内存同步机制、分布式子图采样和编码‑解码器训练,将单机的连续时间动态图神经网络模型拓展到分布式场景下,解决了在大数据情况下内存资源不足的问题。
-