-
公开(公告)号:CN114035795B
公开(公告)日:2025-05-06
申请号:CN202111156980.0
申请日:2021-09-30
Applicant: 曙光信息产业(北京)有限公司
IPC: G06F8/41 , G06N3/0464 , G06N3/08
Abstract: 本申请公开了一种核函数预编译方法、装置、计算机设备和存储介质。该方法包括:获取参数列表,参数列表用于定义核函数的参数信息;根据预设节点列表将参数列表划分为多个子列表,预设节点列表包括多个从节点;分别将每个子列表下发至对应的从节点,以指示从节点根据子列表对对应的核函数进行预编译后生成可执行文件;获取从节点发送的可执行文件,从而使网络模型训练时能够直接运行可执行文件,而无需在启动阶段对核函数进行实时编译,从而有效减少网络模型训练的启动时间,进而提升网络模型训练的效率,且分布式编译可以大大减少核函数编译的时间消耗。
-
公开(公告)号:CN115688596A
公开(公告)日:2023-02-03
申请号:CN202211403467.1
申请日:2022-11-10
Applicant: 曙光信息产业(北京)有限公司
IPC: G06F30/27 , G06V10/764 , G06V10/774 , G06V10/80 , G06F8/41 , G06N3/0464 , G06N3/08 , G06F111/04
Abstract: 本申请涉及一种图像处理方法、装置、计算机设备和存储介质。所述方法包括:根据待处理图像集对应的最大数据形状,将预设的神经网络模型编译为有向图;在目标数据形状不大于所述最大数据形状的情况下,基于所述目标数据形状对所述有向图进行优化,得到优化后的有向图;所述目标数据形状为所述神经网络模型当前阶段待处理的目标图像对应的数据形状;利用所述优化后的有向图对所述目标图像进行处理,得到所述目标图像对应的处理结果。采用本方法能够扩大神经网络模型的运行场景。
-
公开(公告)号:CN113268426A
公开(公告)日:2021-08-17
申请号:CN202110590499.6
申请日:2021-05-28
Applicant: 曙光信息产业(北京)有限公司
IPC: G06F11/36
Abstract: 本发明实施例公开了一种应用测试方法、装置、计算机设备及存储介质,方法包括:获取适用于主流应用平台的目标应用的目标测试用例;根据所述目标测试用例测试所述目标应用在异构应用平台的应用功能支持结果;在确定所述应用功能支持结果通过应用功能性测试的情况下,在所述异构应用平台中测试所述目标应用的应用性能。本发明实施例的技术方案能够快速排查异构应用平台的功能缺陷和性能差异问题,从而提高应用的测试效率和测试质量,进而保证应用在异构应用平台的运行效果。
-
公开(公告)号:CN113190238A
公开(公告)日:2021-07-30
申请号:CN202110327542.X
申请日:2021-03-26
Applicant: 曙光信息产业(北京)有限公司
Abstract: 本申请涉及一种框架的部署方法、装置、计算机设备和存储介质。所述方法包括:根据待部署集群中各物理机的开发环境信息,搭建待部署集群的目标框架的开发环境,获取目标框架的配置文件,并在开发环境中根据配置文件生成目标框架;对目标框架进行功能性验证,并在目标框架验证通过的情况下将目标框架的框架安装包存储在共享服务器上,以使待部署集群中的各物理机从共享服务器上获取框架安装包进行目标框架的部署。上述方法通过测试机模拟待部署集群中的各物理机的开发环境,可以使之后基于该模拟的开发环境获取到的目标框架能够适用于待部署集群中的任一物理机,进而提高了目标框架在物理机上的部署效率。
-
公开(公告)号:CN112364897A
公开(公告)日:2021-02-12
申请号:CN202011167096.2
申请日:2020-10-27
Applicant: 曙光信息产业(北京)有限公司
Inventor: 胡辰
Abstract: 本申请涉及深度学习技术领域,提供一种分布式训练方法及装置、存储介质及电子设备。其中,分布式训练方法包括:导入节点列表,节点列表包括集群中多个节点的地址信息;控制节点列表中的节点获取安装有深度学习框架的容器镜像,并利用容器镜像在节点上创建容器;控制创建好的容器执行深度学习框架下的训练任务。该方法通过导入节点列表,自动在节点列表中指定的节点上完成容器的创建并利用创建好的容器执行深度学习框架下的训练任务。也就是说,在集群中部署深度学习框架进行模型训练时,用户仅需配置一下导入节点列表中的节点地址,其余步骤均可自动完成,其操作简单高效。
-
公开(公告)号:CN113626331B
公开(公告)日:2024-07-05
申请号:CN202110923382.5
申请日:2021-08-12
Applicant: 曙光信息产业(北京)有限公司
IPC: G06F11/36
Abstract: 本发明公开了一种通信算法的选择方法、装置、计算机设备及存储介质。该方法包括:根据节点的拓扑关系确定备选通信算法;根据备选通信算法对节点进行通信测试,得到测试结果;根据测试结果从备选通信算法中确定目标通信算法。能够实现由计算机自动的根据节点的拓扑关系确定备选通信算法,并对备选通信算法进行测试,无需人工参与,能够快速的对多个备选通信算法进行测试。根据测试结果能够准确的从备选通信算法中确定优选的目标通信算法,相对于根据人工经验确定目标通信算法,能够更加准确的确定目标通信算法,提高目标通信算法选择的准确性。
-
公开(公告)号:CN113360184B
公开(公告)日:2024-06-18
申请号:CN202110623284.X
申请日:2021-06-04
Applicant: 曙光信息产业(北京)有限公司
Abstract: 本发明公开了一种多生态间的软件迁移方法、装置、计算机设备及存储介质,该方法包括:获取目标软件在第一生态中调用的第一API;根据第一API生成映射关系,映射关系包括第一API与第二API的映射关系,第二API为第二生态调用的API,第二API在第二生态的功能与第一API在第一生态的功能相同;根据映射关系对第一API进行迁移。相对于目前缺少普遍适用于不同生态间的软件迁移的问题,本发明实施例中生成的映射关系,能够表示第一生态的第一API与第二生态的第二API的映射关系,根据映射关系能够完成目标软件从第一生态至第二生态的迁移,提高软件代码的迁移效率。
-
公开(公告)号:CN117422108A
公开(公告)日:2024-01-19
申请号:CN202210796356.5
申请日:2022-07-06
Applicant: 曙光信息产业(北京)有限公司
IPC: G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种卷积核的确定方法、装置、设备及存储介质,包括:获取待处理的目标卷积结构参数;将目标卷积结构参数与预先构建的卷积核查询表中的各卷积结构参数进行匹配,得到与目标卷积结构参数对应的至少一条备选卷积结构参数;根据各备选卷积结构参数分别对应的备选卷积核,确定与目标卷积结构参数对应的目标卷积核。本发明实施例的技术方案可以提高卷积核确定过程的性能,以及卷积核确定结果的准确性。
-
公开(公告)号:CN113610241A
公开(公告)日:2021-11-05
申请号:CN202110884863.X
申请日:2021-08-03
Applicant: 曙光信息产业(北京)有限公司
IPC: G06N20/00
Abstract: 本发明实施例公开了一种深度学习模型的分布式训练方法、装置、设备及存储介质。该方法包括:获取目标深度学习模型的TensorFlow训练代码;确定所述TensorFlow训练代码的目标逻辑及封装类型;根据与所述目标逻辑及封装类型匹配的处理策略对所述TensorFlow训练代码进行调整;运行调整后的TensorFlow训练代码,以实现对所述目标深度学习模型的Horovod分布式训练。上述技术方案在Tensorflow代码背景下,自动实现深度学习模型的Horovod分布式训练计算的技术效果。
-
公开(公告)号:CN109101395A
公开(公告)日:2018-12-28
申请号:CN201810841868.2
申请日:2018-07-27
Applicant: 曙光信息产业(北京)有限公司
Inventor: 胡辰
Abstract: 本发明提供一种基于LSTM的高性能计算集群应用监控方法及系统,所述方法包括:采集各计算节点的数据;将所述数据进行阈值预处理和归一化处理;将经阈值预处理和归一化处理后的数据训练形成深度网络LSTM;将经阈值预处理和归一化处理后的数据输入深度网络LSTM内进行高性能计算集群应用异常预测。本发明能够对当前高性能计算集群应用程序进行辅助监控,有效提升判断高性能计算集群应用运行状态的准确率,明显提高高性能集群应用程序运行可控性和稳定性。
-
-
-
-
-
-
-
-
-