一种代码托管和协作系统
    12.
    发明公开

    公开(公告)号:CN111475197A

    公开(公告)日:2020-07-31

    申请号:CN202010286461.5

    申请日:2020-04-13

    Abstract: 本发明实施例提供了一种代码托管和协作系统,包括:代码仓库模块,用于建立多个代码仓库,每个代码仓库用于对一个托管软件全部代码的代码托管;代码托管包括代码版本控制,并基于国产分布式版本控制内核;项目架构和管理模块,用于根据软件项目设置软件项目架构,软件项目至少包括一个托管软件,软件项目架构至少包括项目、项目所属的至少一级子项目,赋予每个所述子项目所述多个代码仓库中至少一个托管软件用以托管代码的代码仓库的访问权限;项目架构和管理模块还用于根据项目人员所属的子项目,确定其具有访问权限的代码仓库;项目架构和管理模块,还用于统计软件项目进展情况和项目人员的开发贡献度,以及代码审查。该方便科研结构提供基于国产内核的全部代码托管能力之外,并且使得项目管理人员能够根据自己的科研项目定制化地建立合适的开发人员架构体系。

    一种人工智能强化学习服务平台

    公开(公告)号:CN111427549A

    公开(公告)日:2020-07-17

    申请号:CN202010239371.0

    申请日:2020-03-30

    Abstract: 本发明涉及一种人工智能强化学习服务平台,从结构上划分为基础设施层、应用服务层以及接口访问层,基础设施层提供强化学习服务平台所须的网络资源、计算资源、存储资源和虚拟化服务资源,并通过虚拟化、负载均衡、容灾备份以及弹性计算技术提供云存储、云处理相关的IT基础设施服务;应用服务层包括基于Project的封装和管理模块、云端开发及调试环境模块、虚拟开发环境接口模块三部分;三者自上而下为领域研究者提供各种通用或者自定义的云端研究环境;平台将强化学习研究涉及的数据、算法以及研究环境以Project的形式,封装在虚拟化容器中,为每个使用平台的用户开辟独立的试验环境;接口访问层能够让强化学习研究者自助式的管理其云计算环境。

    一种基于优化算法的对等模式并行处理方法及框架

    公开(公告)号:CN111176865A

    公开(公告)日:2020-05-19

    申请号:CN201911415137.2

    申请日:2019-12-31

    Abstract: 本发明提供了一种基于优化算法的对等模式并行处理方法及框架,其中,方法步骤包括:主管理进程进行非阻塞式接收,接收来自子管理进程的收敛信号,根据第一预设算法进行水文模拟和纳什系数计算,生成一组适应值,对适应值进行排序处理,选择最优解;子管理进程进行非阻塞式接收广播,用于接收来自主管理进程的退出信号,再进行非阻塞式接收,用于接收来自计算进程的收敛信号,然后根据第二预设算法进行水文模拟和纳什系数计算,生成一组适应值,并对适应值进行排序,选择最优解;计算进程进行非阻塞式接收广播,用于接收来自子管理进程的退出信号;根据第一预设算法进行水文模拟和纳什系数计算,生成一组适应值,对适应值进行排序,选择最优解。

    基于混合优化算法的并行处理方法

    公开(公告)号:CN103646282B

    公开(公告)日:2017-01-04

    申请号:CN201310692849.5

    申请日:2013-12-17

    Abstract: 本发明涉及一种基于混合优化算法的并行处理方法,包括:设计并实现了一个通用的主-从式并行计算框架,主进程负责新点的生成、发送、适应值的接收、排序以及收敛性分析工作,从进程则只进行适应值的发送、新点的接收以及正演过程。其中主进程的新点生成过程中,本发明设计了一个结合粒子群算法和遗传算法特点的混合算法,具有粒子群算法的快速收敛性以及遗传算法的全局收敛能力。在此基础上,本发明引入多通信子空间概念,即将整个通信空间分割成多个子通信空间,从进程的正演过程,由多个进程在各自的通信子空间中共同并行完成,进一步加速了求解速度。本发明提高了收敛速度和最优解质量,并且加速了并行反演过程。

    张量处理单元上加速稀疏矩阵计算的方法及存储介质

    公开(公告)号:CN119441698B

    公开(公告)日:2025-04-29

    申请号:CN202411531342.6

    申请日:2024-10-30

    Abstract: 本申请公开了一种张量处理单元上加速稀疏矩阵计算的方法及存储介质,所述方法包括:获取第一矩阵,其中第一矩阵包括行索引值或列索引值,第一矩阵为基于输入序列得到的稀疏矩阵;基于行索引值或列索引值,对所述第一矩阵的行和列进行重新排序,得到第二矩阵,以使所述第二矩阵相对于第一矩阵的缓存命中率更高;从GPU的内存中读取第三矩阵,并对所述第二矩阵和第三矩阵进行运算,其中所述第三矩阵是指与所述第二矩阵进行运算的矩阵,所述第三矩阵基于所述输入序列得到。通过本技术,并在tensor core上执行矩阵运算,减少了冗余计算操作,提升了运行过程中的缓存命中率实现了对稀疏矩阵的高效计算与运算资源的优化利用,极大地提升了矩阵计算的整体性能。

    一种面向国产超算系统的大模型训练优化方法及装置

    公开(公告)号:CN119647559A

    公开(公告)日:2025-03-18

    申请号:CN202411583800.0

    申请日:2024-11-07

    Abstract: 一种面向国产超算系统的大模型训练优化方法,应用于多个国产超算系统的计算设备,每个计算设备配置有GPU,GPU包含至少一个进程,方法应用于Megatron‑DeepSpeed框架,方法包括:确定大模型训练所需要的进程,每个进程确定归属的进程组;基于Megatron‑DeepSpeed框架中张量并行、流水线并行、数据并行的顺序,同时构建进程组,进程组中包括至少一个进程;每个进程在并行训练框架中执行多次前向计算和反向计算,通过进程组的通信机制进行数据交换与同步,前向计算和反向计算包括集合通信。本方法能够提高在国产超算上进行大模型训练时的训练效率。

Patent Agency Ranking