-
公开(公告)号:CN119692388A
公开(公告)日:2025-03-25
申请号:CN202311236572.5
申请日:2023-09-22
Applicant: 上海处理器技术创新中心
IPC: G06N3/042 , G06N3/08 , G06F18/241
Abstract: 本申请提供一种用于对图神经网络的训练进行加速的方法及相关产品,其中,方法包括:获取存储在数据库中的原始图数据,其中,原始图数据包括多个节点和边;根据预设的节点指标相似度判定规则找出原始图数据中的冗余节点;根据预设的冗余节点过滤规则找出满足过滤规则的冗余节点;对满足过滤规则的冗余节点进行去除,得到优化图数据;以及将所得到的优化图数据替换原始图数据,作为图神经网络模型的训练输入数据。本申请通过采用对原始图数据中部分信息量较少的冗余节点进行消除后得到优化图数据的方法,能够在保持图结构数据的关键信息和表示能力的前提下,有效缩减原始图数据的规模,进而提高大规模图数据在图神经网络模型上的训练效率。
-
公开(公告)号:CN117610616A
公开(公告)日:2024-02-27
申请号:CN202311464998.6
申请日:2023-11-06
Applicant: 上海处理器技术创新中心
IPC: G06N3/0464 , G06N3/08 , G06F9/50
Abstract: 本披露公开了一种用于加速异构图神经网络的大数据集训练的方法及相关产品。其中,前述的方法包括循环地执行以下步骤:基于中央处理单元CPU对包含异构图的大数据集进行采样处理,以得到小批量的训练集;基于所述CPU对所述训练集进行数据处理,以得到数据处理结果;以及基于图像处理单元GPU获取所述数据处理结果,并根据所述数据处理结果训练所述异构图神经网络。通过本披露的技术方案,可以将异构图神经网络训练过程所涉及的各个任务分配至CPU和GPU上执行,特别是将对GPU计算资源需求不大的采样和数据处理过程分配至CPU上执行,可以有效提高GPU利用率,从而加速整个训练过程。
-
公开(公告)号:CN117273857A
公开(公告)日:2023-12-22
申请号:CN202311258770.1
申请日:2023-09-26
Applicant: 上海处理器技术创新中心
IPC: G06Q30/0601 , G06N3/042 , G06N3/08
Abstract: 本披露公开了一种用于推荐系统二分图的采样方法及相关产品,该采样方法包括:基于用户‑商品二分图获取目标用户和目标商品的一阶邻居,构成一阶采样图;根据一阶采样图,执行递归采样操作,该操作在每个采样阶数M下,执行:(i)采用预设过滤规则对(M‑1)阶采样图中获取的用户顶点和商品顶点的一阶邻居进行过滤采样,以获取新采样点集;(ii)将获取的新采样点集添加到M阶采样图;在构建到预设的N阶采样图后终止递归采样操作,其中M和N均为不小于2的正整数,且M不大于N。本披露通过采用预设过滤规则实现对不重要的商品顶点和用户顶点的过滤,减小样本量。此外通过递归的方式扩展到目标顶点的多阶网络邻域,能够帮助推荐系统做出更优质的推荐。
-
公开(公告)号:CN117155865A
公开(公告)日:2023-12-01
申请号:CN202311085777.8
申请日:2023-08-25
Applicant: 上海处理器技术创新中心
IPC: H04L47/122 , H04L47/10 , H04L47/43 , H04L47/41 , G06F15/173 , G06N3/042
Abstract: 本披露公开了一种用于多节点系统的图数据通信方法、电子设备及存储介质。该方法包括:从当前节点以外接收数据包;响应于数据发送指令,检测接收到的所有数据包的目的节点;响应于所有数据包中存在至少两个数据包的目的节点与当前节点不一致,识别目的节点与当前节点不一致的数据包的尾顶点集合;以及响应于尾顶点集合之间存在至少一个相同子集,将存在相同子集的尾顶点集合所在的不同数据包进行归约,以生成归约数据包并发送。本披露实施例通过将同一目的地的不同数据包进行归约处理,从而将原本传输的多个数据包简化成一个归约数据包并发送,能够缩减多节点系统中数据传输的频次以及单条链路上的数据包规模,从而降低对通信带宽的占用。
-
公开(公告)号:CN117278475A
公开(公告)日:2023-12-22
申请号:CN202311079971.5
申请日:2023-08-24
Applicant: 上海处理器技术创新中心
IPC: H04L47/122 , H04L47/10 , H04L47/43 , G06F15/173 , G06N3/042
Abstract: 本披露公开了一种用于多节点系统的图数据通信方法、电子设备及存储介质。该方法包括:将图数据中的顶点分配至多节点系统中的节点,以生成每一节点的顶点集合和出边集合;根据每个节点的出边集合中尾顶点所分配至的节点,构建出每个节点的逻辑广播域;基于每个节点的顶点集合和出边集合形成每个节点的数据包;以及从逻辑广播域中选定一个节点作为广播点,以通过广播点将数据包发送给逻辑广播域中的其他节点。利用本披露实施例的方法,可以通过构建出适用于每一节点中数据包的逻辑广播域,缩小每一数据包的传输范围,从而避免数据包在非必要节点之间往复传输,实现多节点之间的高效通信。
-
公开(公告)号:CN117422098A
公开(公告)日:2024-01-19
申请号:CN202311386067.9
申请日:2023-10-24
Applicant: 上海处理器技术创新中心
IPC: G06N3/04
Abstract: 本申请公开了一种用于进行图采样的方法、设备和计算机可读存储介质。所述方法包括:获取原始图结构数据,其中所述原始图结构数据至少包括多个原始结点;从所述多个原始结点中采集多个目标结点;对每个所述目标结点进行扩散采样,以获得多个采样子图;确定所述多个采样子图中采样子图的结点数最小的目标采样子图;以及基于所述目标采样子图的最小结点数对所述多个采样子图进行重采样,以获得目标图结构数据。利用本申请的方案,可以确保每次采样结点数目相同且保留图结构的特性。
-
公开(公告)号:CN117057304A
公开(公告)日:2023-11-14
申请号:CN202311022420.5
申请日:2023-08-14
Applicant: 上海处理器技术创新中心
IPC: G06F30/3953 , G06F30/398
Abstract: 本申请公开了一种用于对超导快速单磁通量子电路进行布线的方法和相关产品。所述方法包括:获取超导快速单磁通量子电路的布线网络,其中所述布线网络包括所述超导快速单磁通量子电路中的目标源和对应的目标引脚;对所述目标源进行初始轨道分配,以形成初始轨道集;将所述初始轨道集中所述目标源的轨道重新分配至所述布线网络的顶层和底层,以对所述初始轨道集进行优化形成最优轨道集;以及在所述最优轨道集中将所述目标源和对应的目标引脚进行连接,以对超导快速单磁通量子电路进行布线。利用本申请的方案,可以提高布线资源的利用率,减小芯片面积。
-
公开(公告)号:CN115952825A
公开(公告)日:2023-04-11
申请号:CN202211551438.X
申请日:2022-12-05
Applicant: 上海处理器技术创新中心
IPC: G06N3/04 , G06N3/08 , G06Q30/0601 , G06F18/241 , G06Q10/04
Abstract: 本发明提出一种基于节点任务重排序的图神经网络执行方法和系统,包括:对图数据中目的节点进行分块,对图数据中源节点进行分窗口;分块中目的节点进行邻居特征的聚合;当前分块中目的节点均与当前窗口中的源节点完成聚合后,判断当前分块中是否有目的节点已完成全部邻居节点的聚合,若有,则从当前分块中删除,并根据删除的目的节点个数,将已准备好节点特征向量与边表的目的节点作为新节点加入当前分块;否则,维持当前分块中的目的节点不变;直到所有窗口均完成一次遍历,重新取首个源节点窗口作为当前窗口;当前分块中未从首个窗口中聚合邻居特征的目的节点,将与其它新加入当前分块中的目的节点一同,从首个窗口开始执行聚合操作。
-
公开(公告)号:CN115797148A
公开(公告)日:2023-03-14
申请号:CN202211550910.8
申请日:2022-12-05
Applicant: 上海处理器技术创新中心
Abstract: 本发明提出一种基于跨迭代数据预取的图计算加速方法和系统,包括:获取使用节点和边进行描述的图数据及其对应的图计算任务,通过由用于边遍历的Scatter步骤和用于节点属性更新和激活的Apply步骤依次迭代处理该图数据,得到该图计算任务的执行结果;该Apply步骤,对该图数据节点进行更新与激活,其中选出出度或入度小于阈值的激活节点作为跨迭代预取节点,通过预见性预取器预取该跨迭代预取节点的边信息和节点属性,并保存在边表缓存中;该Scatter步骤,该边表缓存中直接获取属于上一迭代跨迭代预取节点的激活节点信息,其余激活节点信息通过访问外存获取,以对激活节点进行边遍历。通过为节点提前进行信息预取,从而缓解高延迟不规则访存的压力。
-
-
-
-
-
-
-
-