-
公开(公告)号:CN115392081A
公开(公告)日:2022-11-25
申请号:CN202211012953.0
申请日:2022-08-23
Applicant: 杭州电子科技大学 , 中国科学院计算机网络信息中心
IPC: G06F30/23 , G06F30/28 , G06F111/10 , G06F113/08 , G06F119/14
Abstract: 本发明公开了一种基于FETI的高精细流致振动模拟方法,首先读入相应的算例数据,并采用NewMark方法对流致振动动力学过程进行数值离散。其次采用FETI方法对离散后的方程进行并行分解,子域在划分边界处由拉格朗日乘子进行粘合,提出域边界平衡的图二分算法,均衡各子域中的单元量和计算量,保证进程间负载均衡。最后采用预处理共轭梯度法进行迭代求解,迭代求解得到,根据得到相应的位移,根据位移,NewMark方法实现流致振动过程的时间步更新。本发明完成了数亿规模的网格数据求解,提高了求解大规模流致振动问题的效率,实现了流致振动的快速高效模拟,并且保证了进程间的负载均衡。
-
公开(公告)号:CN111027708A
公开(公告)日:2020-04-17
申请号:CN201911197591.5
申请日:2019-11-29
Applicant: 杭州电子科技大学舟山同博海洋电子信息研究院有限公司 , 杭州电子科技大学 , 浙江曙光信息技术有限公司
Abstract: 本发明公布一种面向分布式机器学习的参数通信优化方法。本发明将机器学习迭代-收敛算法的容错特性进行扩展,提出了动态有限容错特性,并基于动态有限容错性实现了一种分布式机器学习参数通信优化策略,通过动态调节各计算节点与参数服务器的同步策略结合性能检测模型,充分利用各计算节点的性能,保证机器学习模型准确率;保证计算资源充足,模型的训练过程不受分布式计算资源动态变化的影响;将训练算法和系统硬件资源进行解耦,解放了开发人员凭经验手工进行计算资源的分配以及数据通信调优的过程,有效的提高了程序在各种集群环境下的扩展性和较高的执行效率。本发明可应用于分布式机器学习参数通信的优化、集群计算性能的优化等领域中。
-
公开(公告)号:CN111079921A
公开(公告)日:2020-04-28
申请号:CN201911197354.9
申请日:2019-11-29
Applicant: 杭州电子科技大学舟山同博海洋电子信息研究院有限公司 , 杭州电子科技大学
Abstract: 本发明公开了一种基于异构分布式系统的高效神经网络训练调度方法。本发明首先通过资源探测系统探测并分析分布式系统中的资源动态变化;将训练过程分解为内迭代与外迭代作为任务调度系统的重要子集,并根据资源探测系统提供的分布式系统节点状态信息,随后任务调度系统自适应地修改环境参数并调度计算。在公开数据集下进行的相关实验表明,在保证高准确率、收敛率的前提下,本发明具有更好的鲁棒性和可扩展性。
-
公开(公告)号:CN110990155A
公开(公告)日:2020-04-10
申请号:CN201911197625.0
申请日:2019-11-29
Applicant: 杭州电子科技大学 , 杭州电子科技大学舟山同博海洋电子信息研究院有限公司 , 浙江曙光信息技术有限公司
Abstract: 本发明公开了一种面向大规模安全监控的参数通信方法。本发明首先利用监控图片作为数据集,采用多节点集群组成参数服务器系统,其中一个节点作为参数服务器,其他节点作为计算节点。其次部署性能监控模型,参数服务器通过性能监控模块获取计算节点的性能参数。然后参数服务器以收集到的性能参数为依据,使用性能聚类算法计算出参数服务器下次同步计算节点的数量。最后计算节点根据同步标记选择全局模型或本地模型进入下一次迭代训练。本发明动态限制参数服务器的同步屏障规模,减少了同步通信开销,并且保证了模型训练的准确率;在计算节点间实现了有限异步计算,充分发挥了集群整体性能,实现集群动态负载均衡。
-
公开(公告)号:CN110990155B
公开(公告)日:2022-03-22
申请号:CN201911197625.0
申请日:2019-11-29
Applicant: 杭州电子科技大学 , 杭州电子科技大学舟山同博海洋电子信息研究院有限公司 , 浙江曙光信息技术有限公司
Abstract: 本发明公开了一种面向大规模安全监控的参数通信方法。本发明首先利用监控图片作为数据集,采用多节点集群组成参数服务器系统,其中一个节点作为参数服务器,其他节点作为计算节点。其次部署性能监控模型,参数服务器通过性能监控模块获取计算节点的性能参数。然后参数服务器以收集到的性能参数为依据,使用性能聚类算法计算出参数服务器下次同步计算节点的数量。最后计算节点根据同步标记选择全局模型或本地模型进入下一次迭代训练。本发明动态限制参数服务器的同步屏障规模,减少了同步通信开销,并且保证了模型训练的准确率;在计算节点间实现了有限异步计算,充分发挥了集群整体性能,实现集群动态负载均衡。
-
公开(公告)号:CN117854597B
公开(公告)日:2025-04-22
申请号:CN202410052756.4
申请日:2024-01-15
Applicant: 杭州电子科技大学
IPC: G16B40/00 , G06F18/213 , G06F18/23213 , G06F18/2431 , G06F18/214 , G06N3/08
Abstract: 本发明公开了一种基于对比学习特征降维的轨迹预测方法,该方法首先根据待降维细胞原始矩阵X,获取每个细胞的正样本细胞集和负样本细胞集。其次将待降维细胞原始矩阵X输入到一个全连接神经网络中,得到细胞的降维特征Y,在将其分别输入到细胞级成对模块和聚类级对比模块中,并计算特征的损失。然后根据特征的损失,对细胞级成对模块和聚类级对比模块的输出进行优化。最后在优化完成后,使用特征Y进行轨迹推断,得到预测的轨迹。本发明提高了学习到的细胞特征的准确度,并使得学习到的细胞特征更利于轨迹推断。
-
公开(公告)号:CN118551768A
公开(公告)日:2024-08-27
申请号:CN202410688479.6
申请日:2024-05-30
Applicant: 杭州电子科技大学
IPC: G06F40/30 , G06F40/205 , G06F40/126 , G06F40/289
Abstract: 本发明公开一种基于关系标签语义的实体关系抽取方法,本发明引入了关系标签作为额外的信息来源,利用关系标签语义信息,将其融入上下文信息中,实现上下文信息与关系语义信息的结合,从而更好地从上下文信息提取出包含关系语义信息的实体信息,进而提升实体关系抽取的性能。本发明缓解了简单提取上下文信息中的实体信息还无法表达实体之间关系的问题,提高了关系抽取的效果,从而可以更准确地从文本数据中提取出有用的关系信息,进而帮助构建更丰富准确的知识库。
-
公开(公告)号:CN118445074A
公开(公告)日:2024-08-06
申请号:CN202410558711.4
申请日:2024-05-08
Applicant: 杭州电子科技大学
IPC: G06F9/50
Abstract: 本发明公开了一种支持异构AI框架的分布式自动并行计算方法及系统,该方法首先构建基于计算图的分布式中间表达Distributed‑IR,表达深度学习分布式并行执行语义,将异构AI框架的深度学习模型转换为统一的Distributed‑IR。其次计算内存和计算代价并保存到Distributed‑IR节点中的对应属性中。最后设计深度学习模型分布式并行计算策略生成器,为深度学习模型自动搜索一种最优分布式并行计算策略,并输出至底层异构AI框架。本发明方法可为跨业务、跨框架的深度学习模型,提供高效、可移植的分布式并行策略自动搜索与调优方法。
-
公开(公告)号:CN118133922A
公开(公告)日:2024-06-04
申请号:CN202410278569.8
申请日:2024-03-12
Applicant: 杭州电子科技大学
IPC: G06N3/082 , G06N3/098 , G06N3/0455 , G06F18/213 , G06F18/25
Abstract: 本发明公开了一种基于自动编码器的联邦学习全局模型微调方法,该方法包括客户端按照主类数据进行分组,在每组的客户端之间串行地预训练自动编码器并生成初始特征;客户端利用主类数据训练本地自动编码器,提取中间特征聚合得到聚合特征,然后上传本地模型参数,本地自动编码器参数和聚合特征到服务端;服务端聚合本地模型,并将相同主类的本地自动编码器参数聚合;服务端向所有主类对应的聚合特征添加高斯噪声得到混合特征,然后用解码器升维得到独立同分布的数据,用以微调全局模型。本发明可以提高数据异构环境下联邦学习的性能。
-
公开(公告)号:CN117932141A
公开(公告)日:2024-04-26
申请号:CN202310258586.0
申请日:2023-03-17
Applicant: 杭州电子科技大学
IPC: G06F16/9535 , G06F18/23213 , G06N20/00 , G06N3/0985 , G06N3/098 , G06N3/084
Abstract: 本发明公开了一种基于动态适应聚类的联邦个性化推荐方法,包括如下步骤:S1、收集推荐领域的用户数据集;S2、通过系统模拟模型将数据中每一个用户作为一个客户端拆分出来并模拟出一个服务端;S3、服务端初始化一个元模型,并在所有客户端上训练元模型,得到一个能适应所有客户端的元学习器;S4、将元学习器发送到每个客户端中训练,得到能够适应相应客户端的模型参数;S5、将所有客户端的模型参数发送到服务端进行聚类,进而得到不同用户分组;S6、服务端运用簇分解合并机制,筛选出用户组中客户端数量小于一定阈值的用户组;S7、在每个用户组中运行联邦学习。该方法既可以降低所需的聚类次数从而降低通信和计算复杂度。
-
-
-
-
-
-
-
-
-