-
公开(公告)号:CN119536918A
公开(公告)日:2025-02-28
申请号:CN202510107481.4
申请日:2025-01-23
Applicant: 之江实验室 , 上海人工智能创新中心
Abstract: 本发明公开了一种PCIe设备远程控制方法、装置、电子设备、介质,所述装置包括:本地服务器和远端服务器;所述本地服务器上部署有PCIe硬件设备控制组件、虚拟PCIe总线、若干本地RDMA网卡;所述远端服务器上部署有PCIe硬件设备、PCIe硬件设备代理组件、若干远端RDMA网卡;所述PCIe硬件设备控制组件用于实现部署于远端服务器上的PCIe硬件设备在本地CPU上的虚拟PCIe设备呈现;所述虚拟PCIe总线用于为本地CPU管理虚拟PCIe总线及总线上的虚拟PCIe设备;所述PCIe硬件设备代理组件与部署于远端服务器上的PCIe硬件设备一一配对,用于完成远端RDMA网卡与PCIe硬件设备间的PCIe请求的代理转发。
-
公开(公告)号:CN113342458B
公开(公告)日:2024-07-09
申请号:CN202110476378.9
申请日:2021-04-29
Applicant: 之江实验室
Abstract: 本发明涉及边缘计算领域,尤其是涉及了一种基于容器云的云边协同海量设备和业务批量控制方法,采用打标签分类的方式,对不同的设备和业务进行控制分类,将边缘侧海量的具有计算能力的设备以节点的形式,纳管到容器云集群中,用户在容器云集群中,对设备进行控制和分类,当需要在海量设备中按需求部署业务时,可以通过标签的形式,在某一类设备上进行业务的快速部署,同时,对于海量业务,用户也可以在容器云集群中进行控制和分类,当需要对海量的业务按照需求进行升级时,也可以通过标签的形式,对某一类业务进行快速的升级。本发明方案满足了用户对海量设备海量业务进行控制和维护的需求,大大提升了控制和维护的效率。
-
公开(公告)号:CN119336510A
公开(公告)日:2025-01-21
申请号:CN202411863320.X
申请日:2024-12-17
Applicant: 之江实验室
Abstract: 本说明书公开了一种计算内核动态调度系统及方法,计算内核动态调度系统包括:请求管理模块、调度管理模块、监控管理模块、运行管理模块,请求管理模块用于将属于不同目标任务的各待运行计算内核存放到不同的队列中进行管理,调度管理模块用于针对队列中的每个计算内核,根据监控管理模块采集的每个计算内核的执行特征数据,确定每个计算内核对于迟延的允许程度,以确定每个计算内核的后置系数,进而可以按照每个计算内核的后置系数,将各计算内核调度到相应的目标计算内核中运行,从而可以提升通过指定芯片运行各目标任务时的效率。
-
公开(公告)号:CN115774736A
公开(公告)日:2023-03-10
申请号:CN202310095934.7
申请日:2023-02-10
Applicant: 之江实验室
IPC: G06F16/2455 , G06F16/245 , G06F16/2453 , G06F16/22 , G06F16/901 , G06F16/903 , G06F9/50
Abstract: 本发明公开了一种数据延迟发送的NUMA架构时变图处理方法与装置,首选基于基线快照建立初始的时变图数据表示;根据更新快照以更新时变图数据表示,并构建快照并集;基于快照并集,在NUMA节点内部进行迭代计算,更新并累积顶点数据;将累积的顶点数据传播到其他NUMA节点以更新其他顶点数据;循环上述步骤,直至每个NUMA节点内没有可计算的活动顶点,对每个NUMA节点输出的结果进行聚合,完成NUMA架构时变图的处理。本发明关注了服务器的NUMA结构特征,实现了数据的合理分配以及数据包的灵活传输,降低了NUMA节点间的通信频率,提高计算资源的利用率,使时变图的计算效率得到显著提高。
-
公开(公告)号:CN114896434B
公开(公告)日:2022-11-18
申请号:CN202210821230.9
申请日:2022-07-13
Applicant: 之江实验室
IPC: G06F16/51 , G06F16/58 , G06F16/583 , G06N3/04 , G06N3/08
Abstract: 本发明公开了一种基于中心相似度学习的哈希码生成方法及装置,该方法包括:获取带有标签的训练数据集;利用哈达玛矩阵,为所述训练数据集中相同标签的数据构造一个共享的哈希中心,从而得到若干哈希中心;根据所述训练数据集中的样本经过多模态神经网络生成的哈希码与该数据对应的哈希中心之间的距离,计算得到中心相似性学习的目标损失函数;根据所述中心相似性学习的目标损失函数,训练多模态神经网络;获取多模态数据并对所述多模态数据进行预处理;将预处理后的多模态数据输入训练后的多模态神经网络中,生成多模态哈希码。
-
公开(公告)号:CN113328989B
公开(公告)日:2022-05-06
申请号:CN202110431694.4
申请日:2021-04-21
Applicant: 之江实验室
Abstract: 本发明公开了端云协同的用户隐私保护车辆保险保费计算模型及方法,方法包括:S1,端侧用户构建传输的数据包;S2,将数据包从端侧传输到云侧;S3,通过加密数据,筛选云侧共享数据池,得到候选数据集;S4,对候选数据集使用方程组求解恢复属性,得到匹配数据集;S5,生成会话秘钥;S6,对匹配数据集的每一条匹配项的车辆保险保费价格使用会话秘钥加密,并传输给端侧用户,端侧用户解密车辆保险保费价格;端侧模型包括:秘钥生成模块、哈希映射模块、布隆矩阵生成模块、启发式矩阵生成模、解密模块;云侧模型包括:云侧共享数据池、布隆过滤器、加密属性恢复模块、会话秘钥生成模块、车辆保险保费价格传输模块。
-
公开(公告)号:CN114237918A
公开(公告)日:2022-03-25
申请号:CN202210183223.0
申请日:2022-02-28
Applicant: 之江实验室
Abstract: 本发明公开了一种面向神经网络模型计算的图执行方法和装置,包括根据深度学习框架编译生成的物理计算图,创建本机上的任务执行体,通过设计为每个任务执行体分配多个空闲内存块的方案,实现整张计算图以流水并行的方式同时参与到不同批次数据的深度学习训练任务中,本发明公开的面向神经网络模型计算的图执行方法和装置,以算子核函数的执行体为基本单元,以生产和消费的张量作为整个计算图中流动的数据,执行体以流水并行的方式实现模型的训练过程。在大规模深度神经网络的分布式应用场景下,本发明对用户的使用门槛较低,并且能够使模型学习到大量分批次流入神经网络的数据的内在关联,从而获得对应场景中的“智能”感知与判断能力。
-
公开(公告)号:CN119645919A
公开(公告)日:2025-03-18
申请号:CN202510169425.3
申请日:2025-02-17
Applicant: 之江实验室
Abstract: 本发明公开了一种数据传输方法、装置、计算设备和存储介质,涉及计算机技术领域,方法包括:计算设备响应于接收到的来自目标设备的数据传输请求,从存储介质中获取目标设备的共享内存地址,共享内存地址是指目标设备中的共享内存的唯一地址;其中,目标设备中的共享内存与全局内存都采用统一编址技术,以使得共享内存通过共享内存地址直接连接到PCIe总线。计算设备通过PCIe总线向共享内存地址发起数据传输操作。以这种方式GMEM和SMEM使用了统一的地址空间,并且SMEM的地址暴露给外部。这意味着,无论是CPU还是RDMA控制器,都能够通过单一的地址空间来访问这两种类型的内存。本申请解决了现有技术中数据传输效率低的技术问题。
-
公开(公告)号:CN119127624B
公开(公告)日:2025-03-14
申请号:CN202411625060.2
申请日:2024-11-14
Applicant: 之江实验室
IPC: G06F11/30 , G06F11/3668 , G06F15/173 , H04L43/06 , H04L43/08
Abstract: 本发明公开了一种面向异构GPU机间直接通信的自动化测试系统和方法,所述方法包括:由用户检查和配置测试参数并提交测试请求,测试管理器解析请求后进行调度处理,执行具体测试流程,最后收集测试数据,并进行结果分析和测试报告的生成。为实现以上方法,本系统包括以下模块:用户界面模块、测试管理器模块、配置数据库模块、测试执行器模块、网络接口模块、结果分析器模块、以及报告生成器模块,各模块间协调处理以完成异构GPU环境中机器间GPU Direct RDMA方式下高速通信的自动化测试。本系统支持多种GPU厂商的软硬件配置,提供标准化的测试流程和方法,解决了异构GPU环境下GDR测试繁琐和效率低下问题。
-
公开(公告)号:CN119201361B
公开(公告)日:2025-03-07
申请号:CN202411700119.X
申请日:2024-11-26
Applicant: 之江实验室
Abstract: 本发明公开了一种基于向量化指令集的虚拟GPU的实现方法,用于在CPU处理器中构建虚拟GPU加速卡,使能处理器平台上的虚拟异构加速计算。本方法包括:以CPU中可伸缩向量指令为基础构建虚拟GPU线程运行环境,其中向量化计算单元中的每一个标量计算单元作为虚拟GPU的一个并行计算核,每一个虚拟GPU并行核拥有独立栈空间作为本地存储空间;由虚拟GPU任务管理器创建虚拟GPU线程所需的任务块空间并管理虚拟GPU任务的运行。本系统通过利用CPU可伸缩向量指令的并行化执行能力,构建了类GPU并行化计算模式,以此构建虚拟GPU,提供了在没有GPU硬件的环境下的GPU使用。
-
-
-
-
-
-
-
-
-