一种数据处理的方法、装置、存储介质及电子设备

    公开(公告)号:CN116341642B

    公开(公告)日:2023-11-10

    申请号:CN202310216915.5

    申请日:2023-03-01

    Inventor: 王宏升 陈光

    Abstract: 本说明书公开了一种数据处理的方法、装置、存储介质及电子设备。首先,获取数据处理模型对应的算子运算关系图,算子运算关系图用于表示所述数据处理模型所包含的各算子之间的运算关系。其次,根据算子运算关系图,确定各算子。而后,从各算子中确定存在运算关系的算子,作为目标算子,并根据各目标算子按照不同的数据处理方式对输入张量进行数据处理时所消耗的运算资源,从各目标算子在对输入张量进行数据处理时所采用的各数据处理方式中筛选出目标方式。最后,当接收到待处理数据时,将待处理数据输入到数据处理模型中,以按照目标方式,通过数据处理模型对待处理数据进行数据处理。本方法可以提高对神经网络模型的训练效率。

    一种确定目标模型的方法、装置、存储介质及设备

    公开(公告)号:CN116205232B

    公开(公告)日:2023-09-01

    申请号:CN202310212123.0

    申请日:2023-02-28

    Inventor: 王宏升 陈光

    Abstract: 本说明书公开了一种确定目标模型的方法、装置、存储介质及设备,通过获取结构不完全相同的各待定模型构建强化学习的搜索空间,并将从搜索空间中确定作为目标模型的待定模型的操作作为动作,根据执行该动作后得到的目标模型的结构确定状态。并且可通过训练得到的目标模型输出训练样本的预测结果,以根据预测结果确定奖励值。之后则可继续根据搜索空间中剩余的待定模型重新确定作为目标模型的待定模型,并训练重新得到的目标模型以重新确定奖励值。可根据重新确定的奖励值与历史确定的奖励值中,最高的奖励值对应的目标模型的结构更新状态,直至遍历各待定模型为止,根据最终确定出的状态,确定出最优的目标模型的结构。

    一种分布式通信系统及方法

    公开(公告)号:CN116361037B

    公开(公告)日:2023-08-18

    申请号:CN202310561547.8

    申请日:2023-05-18

    Abstract: 本说明书公开了一种分布式通信系统及方法,通过第二动态通信网络对象基于第一工作节点发送的通知消息,在第二设备的内存中分配用于存储所述目标数据的目标内存,并基于目标数据和目标内存生成读取请求,并将读取请求发送给第一动态通信网络对象,从而,第一动态通信网络对象根据从读取请求中得到的目标数据的属性,从第一设备的内存中查找目标数据,并将目标数据通过写操作写入第二设备的目标内存,第二工作节点基于目标内存中的目标数据执行数据处理任务。可见,通过第一动态网络对象以及第二动态网络对象之间的交互,实现了跨设备的直接通信,无需大量不必要的数据拷贝,也不会占用中央处理器资源,从而提高了通信效率和数据并行的规模。

    一种确定目标模型的方法、装置、存储介质及设备

    公开(公告)号:CN116205232A

    公开(公告)日:2023-06-02

    申请号:CN202310212123.0

    申请日:2023-02-28

    Inventor: 王宏升 陈光

    Abstract: 本说明书公开了一种确定目标模型的方法、装置、存储介质及设备,通过获取结构不完全相同的各待定模型构建强化学习的搜索空间,并将从搜索空间中确定作为目标模型的待定模型的操作作为动作,根据执行该动作后得到的目标模型的结构确定状态。并且可通过训练得到的目标模型输出训练样本的预测结果,以根据预测结果确定奖励值。之后则可继续根据搜索空间中剩余的待定模型重新确定作为目标模型的待定模型,并训练重新得到的目标模型以重新确定奖励值。可根据重新确定的奖励值与历史确定的奖励值中,最高的奖励值对应的目标模型的结构更新状态,直至遍历各待定模型为止,根据最终确定出的状态,确定出最优的目标模型的结构。

    一种任务执行系统、方法、存储介质及电子设备

    公开(公告)号:CN116185532A

    公开(公告)日:2023-05-30

    申请号:CN202310439553.6

    申请日:2023-04-18

    Inventor: 王宏升 陈光

    Abstract: 本说明书公开了一种任务执行系统、方法、存储介质及电子设备。所述任务执行系统包括:编译模块、调用模块、目标编译器接口、目标启动接口以及至少两种计算引擎,编译模块用于获取模型数据并进行编译,得到第一可执行代码,调用模块用于调用至少一种计算引擎作为目标引擎,目标引擎用于通过目标编译器接口,将第一可执行代码的格式转换为目标代码格式,并通过目标引擎对第一可执行代码进行编译,得到第二可执行代码,以及获取目标模型对应算子的核函数以及各算子间的依赖信息,通过目标启动接口,将依赖信息的格式转换为目标信息格式,将核函数的格式转换为目标核函数格式,基于核函数、依赖信息以及第二可执行代码执行计算任务。

    一种运动状态的检测方法、装置、存储介质及电子设备

    公开(公告)号:CN116152299A

    公开(公告)日:2023-05-23

    申请号:CN202310433919.9

    申请日:2023-04-21

    Inventor: 林峰 王宏升 陈光

    Abstract: 本说明书公开了一种运动状态的检测方法、装置、存储介质及电子设备。所述运动状态的检测方法包括:针对待检测视频的每帧图像,确定该帧图像对应的全局图像特征,对全局图像特征进行处理,确定目标对象在该帧图像中所对应的局部图像特征,基于所述局部图像特征与目标对象在其他各帧图像中所对应的局部图像特征之间的相似度,根据各帧图像对应的时间信息以及目标对象在各帧图像中的空间信息,确定目标对象在该帧图像中的运动状态特征,根据目标对象在每帧图像中的运动状态特征,确定目标对象对应的运动状态轨迹,并基于运动状态轨迹对目标对象的运动状态进行检测。

    一种硬件加速方法、装置、存储介质及电子设备

    公开(公告)号:CN116107636A

    公开(公告)日:2023-05-12

    申请号:CN202310363658.8

    申请日:2023-04-06

    Inventor: 王宏升 陈光

    Abstract: 本说明书公开了一种硬件加速方法、装置、存储介质及电子设备。在采用本说明书提供的硬件加速方法对目标硬件的矩阵乘法运算进行优化时,可根据样本矩阵的原始布局,也就是原始维度和原始大小确定出样本矩阵的各候选布局,并确定出目标硬件在采用各候选布局的样本矩阵进行矩阵运算时的运算时间,根据运算时间确定出满足指定条件的候选布局,作为目标硬件在采用布局为原始维度与原始大小的矩阵执行矩阵乘法时的目标布局。通过本方法能够找到每种不同原始布局的矩阵与目标硬件之间的亲和程度最高的目标布局,使目标硬件在采用目标布局的矩阵执行矩阵乘法运算时消耗的时间减少,效率提升。

    一种k8s容器云平台中CRD应用集成调用方法与装置

    公开(公告)号:CN115357369B

    公开(公告)日:2023-03-24

    申请号:CN202211290188.9

    申请日:2022-10-21

    Abstract: 本发明公开了一种k8s容器云平台中CRD应用集成调用方法与装置,基于k8s的CRD模块,定义容器应用资源对象,包括控制信息和资源信息;构建其他CRD资源注册机制,注册其他CRD资源信息,并保存对其控制器信息,刷新并读取控制器信息,通过反射的方式运行其他CRD资源的控制器,使得用于运行控制器的最小单元上,能够运行多个其他CRD资源的控制器;将控制器部署到K8s中,用户提交控制信息和已注册的其他CRD资源的资源信息,系统根据控制信息执行控制逻辑,根据资源信息提交相应计算任务到k8s容器云平台中,已注册的其他CRD资源的控制器对计算任务进行处理;从而达到减少了资源的占用的目的。

    一种用于计算图编译的中间表示方法及装置

    公开(公告)号:CN115756474A

    公开(公告)日:2023-03-07

    申请号:CN202211177783.1

    申请日:2022-09-27

    Abstract: 本发明公开了一种用于计算图编译的中间表示方法,包括如下步骤:步骤1、将神经网络编译为用于神经网络计算的计算图;步骤2、为计算图中每个张量变量构建节点;步骤3、将计算图中表示张量变量的节点关联到指向所述张量变量的指针集合;步骤4、分析计算图中张量变量之间的约束关系;步骤5、基于计算图张量变量的约束关系迭代地构建中间表示的拓扑图;步骤6、基于中间表示分析指向相同内存位置的不同别名的张量变量,并为其分配寄存器。本发明提供了一种针对所述计算图中指向同一块内存位置的存在别名关系的张量变量之间的分析方法,本发明提出的用于计算图编译的中间表示方法优化了计算图中指向相同内存位置的张量变量的编译效率。

    一种用于神经网络编译的内存优化方法及装置

    公开(公告)号:CN115269204B

    公开(公告)日:2022-12-30

    申请号:CN202211177784.6

    申请日:2022-09-27

    Abstract: 本发明公开了一种用于神经网络编译的内存优化方法和装置,包括如下步骤:步骤1、将神经网络编译为用于神经网络计算的计算图;步骤2、将计算图转换为拓扑图;步骤3、构建关于计算图包含变量生命周期的区间图;步骤4、分析关于计算图节点包含张量变量互相之间的生命周期的关系;本发明提供了一种面向神经网络编译生成的计算图中数据流的内存分配的优化方法,解决了深度学习操作系统在编译阶段为运行时流过计算图中各节点的张量变量预分配内存的问题。本发明提供了一种计算图各节点包含的张量变量之间生命周期关系的分析方法,并通过分析张量变量的生命周期关系提供了一种为计算图节点包含张量变量分配内存的优化方法。

Patent Agency Ranking