-
公开(公告)号:CN115269204A
公开(公告)日:2022-11-01
申请号:CN202211177784.6
申请日:2022-09-27
Applicant: 之江实验室
Abstract: 本发明公开了一种用于神经网络编译的内存优化方法和装置,包括如下步骤:步骤1、将神经网络编译为用于神经网络计算的计算图;步骤2、将计算图转换为拓扑图;步骤3、构建关于计算图包含变量生命周期的区间图;步骤4、分析关于计算图节点包含张量变量互相之间的生命周期的关系;本发明提供了一种面向神经网络编译生成的计算图中数据流的内存分配的优化方法,解决了深度学习操作系统在编译阶段为运行时流过计算图中各节点的张量变量预分配内存的问题。本发明提供了一种计算图各节点包含的张量变量之间生命周期关系的分析方法,并通过分析张量变量的生命周期关系提供了一种为计算图节点包含张量变量分配内存的优化方法。
-
公开(公告)号:CN115269016A
公开(公告)日:2022-11-01
申请号:CN202211177797.3
申请日:2022-09-27
Applicant: 之江实验室
Abstract: 本发明公开了一种用于图计算的指令执行方法及装置,包括以下步骤:步骤S1:将用于神经网络计算的计算图中每个节点的算子下发到算子解释器;步骤S2:算子解释器构建运行时的指令;步骤S3:定义指令依赖关系;步骤S4:构建指令依赖关系图;步骤S5:构建并行指令的拓扑顺序;步骤S6:将并行指令调度到硬件资源上;步骤S7:构建并行指令的最短调度:在硬件资源限制的条件下并行指令执行所需的最短时间;步骤S8:释放已经执行完的指令。本发明从全局角度分析计算图执行过程中节点所包含指令之间的依赖关系以及基于依赖关系推导全局计算图中可并行执行指令的拓扑顺序,提供了将并行指令最快地调度到硬件资源上的方法和装置,优化了计算图的编译效率。
-
公开(公告)号:CN115240121A
公开(公告)日:2022-10-25
申请号:CN202211155651.9
申请日:2022-09-22
Applicant: 之江实验室
Abstract: 本发明公开了一种用于增强行人局部特征的联合建模方法和装置,包括以下步骤:S1:获取原始监控视频图像数据集,将原始监控视频图像数据集按比例划分训练集与测试集;S2:将监控视频图像训练集进行切割得到图像块向量序列;本发明采用多头注意力神经网络提取视频图像行人局部特征,使用通道卷积核学习图像通道权重参数,利用空间卷积在图像上扫描空间特征,增强行人局部特征提高行人识别率,采用前馈神经网络与激活函数,输入前馈神经网络经过线性层变换,并采用激活函数将行人概率分布映射成分类,识别出行人,输出行人在图像中位置坐标并框选出行人,实现行人重识别,使得能够获取可用的人脸图像。
-
公开(公告)号:CN114783003B
公开(公告)日:2022-09-20
申请号:CN202210714468.1
申请日:2022-06-23
Applicant: 之江实验室
Abstract: 本发明公开了一种基于局部特征注意力的行人重识别方法和装置,包括如下步骤:S1:获取原始监控视频图像数据集,并将原始监控视频图像数据集按比例划分训练集与测试集;S2:将原始监控视频图像训练集进行图像增强,得到增强图像,并将所述增强图像转化成序列数据;基于局部特征注意力的行人重识别技术,采用多头注意力机制神经网络对捕捉提取视频图像特征序列,使用多头注意力机制代替卷积神经网络中的卷积核,采用全连接层与激活函数,针对行人局部特征序列通过权值矩阵组合成完整行人特征序列,将已得到行人特征序列进行预测,输出行人在图像中位置坐标并框选出行人,实现行人重识别。
-
公开(公告)号:CN114936099A
公开(公告)日:2022-08-23
申请号:CN202210874564.2
申请日:2022-07-25
Applicant: 之江实验室
Abstract: 本发明公开了一种用于神经网络计算的图优化方法和装置,包括以下步骤:步骤S1:转换计算图;步骤S2:分配寄存器;步骤S3:定义关于重定义变量的路由选择器;步骤S4:求解关于重定义变量的路由选择器;步骤S5:定义关于重定义变量的路由选择器插入节点的准则;步骤S6:分析关于重定义变量节点的支配边集合;步骤S7:插入关于重定义变量的路由选择器;步骤S8:重命名关于重定义变量。本发明解决了编译期计算图中包含重定义变量的节点流经多路计算流时所对应的关于重定义变量的正确定义的路由选择问题,减少数据流中张量变量所需的内存开销,降低了大模型对于硬件内存资源的要求,推动了深度神经网络模型落地应用的发展。
-
公开(公告)号:CN114598631A
公开(公告)日:2022-06-07
申请号:CN202210455426.0
申请日:2022-04-28
Applicant: 之江实验室
Abstract: 本发明提供了一种面向神经网络计算的分布式数据路由的建模方法和装置,包括如下步骤:S1:设计物理张量的分布式属性:将逻辑张量与物理张量的映射关系抽象为广播属性、散播属性和局部规约属性三种分布式属性;S2:推演输出张量的分布式属性:指定输入张量的分布式属性,然后根据已知的输入张量的分布式属性推演输出张量的合法分布式属性;S3:根据分布式属性情形判断是否需要插入中间通信原语得到局部物理张量的分布式属性;利用所述的面向神经网络计算的分布式数据路由的建模方法和装置搭建模型,分布式设计和开发的难度低,推动了深度神经网络大模型落地应用的发展。
-
公开(公告)号:CN114237918B
公开(公告)日:2022-05-27
申请号:CN202210183223.0
申请日:2022-02-28
Applicant: 之江实验室
Abstract: 本发明公开了一种面向神经网络模型计算的图执行方法和装置,包括根据深度学习框架编译生成的物理计算图,创建本机上的任务执行体,通过设计为每个任务执行体分配多个空闲内存块的方案,实现整张计算图以流水并行的方式同时参与到不同批次数据的深度学习训练任务中,本发明公开的面向神经网络模型计算的图执行方法和装置,以算子核函数的执行体为基本单元,以生产和消费的张量作为整个计算图中流动的数据,执行体以流水并行的方式实现模型的训练过程。在大规模深度神经网络的分布式应用场景下,本发明对用户的使用门槛较低,并且能够使模型学习到大量分批次流入神经网络的数据的内在关联,从而获得对应场景中的“智能”感知与判断能力。
-
公开(公告)号:CN114186687A
公开(公告)日:2022-03-15
申请号:CN202210144108.2
申请日:2022-02-17
Applicant: 之江实验室
Abstract: 本发明公开了一种面向神经网络模型计算的中间表示方法和装置,包括如下步骤:S1:解析输入的模型文件以获取神经网络的拓扑结构信息;S2:构建逻辑计算图;S21:推导逻辑计算图中每个算子的物理布局信息;S22:推导逻辑计算图中每个算子的元属性;S23:推导逻辑计算图中每个算子的输入输出逻辑张量的描述信息;S3:构建物理计算图;S31:生成物理计算图;等步骤,本发明公开的基于元属性的用于神经网络模型计算的中间表示从算子层面原生地支持数据并行和模型并行以及流水并行。本发明公开的面向神经网络模型计算的中间表示方法和装置以计算表达式为基本单元,以张量作为整个计算表达式组成的计算图中流动的数据,以构图的方式实现神经网络模型的计算过程。
-
公开(公告)号:CN112396181A
公开(公告)日:2021-02-23
申请号:CN202011633174.3
申请日:2020-12-31
Applicant: 之江实验室
Abstract: 本发明公开了一种卷积神经网络通用压缩架构的自动剪枝方法及平台。该方法首先随机对输入模型的卷积模块进行通道宽度采样,生成通道剪枝编码向量;然后设计剪枝细胞网络,将通道剪枝编码向量输入该细胞网络,输出用于构建剪枝网络模型的权重矩阵,并生成对应的剪枝结构模型,联合训练剪枝细胞网络和生成的剪枝网络模型,更新该剪枝细胞网络;最后利用训练过的剪枝网络生成的权重搜索性能最优的剪枝网络,而且搜索时不需要任何微调。用户通过训练目标网络的单个剪枝网络,可以在几乎不需要人工参与的情况下搜索不同约束条件下的各种剪枝网络,加快搜索高性能神经网络结构的速度。
-
公开(公告)号:CN112100383B
公开(公告)日:2021-02-19
申请号:CN202011202867.7
申请日:2020-11-02
Applicant: 之江实验室
Abstract: 本发明公开了一种面向多任务语言模型的元‑知识微调方法及平台,该方法基于跨域的典型性分数学习,获得同类任务不同数据集上高度可转移的共有知识,即元‑知识,将不同数据集对应的不同域上的同类任务的学习过程进行相互关联和相互强化,提升语言模型应用中同类下游任务在不同域数据集上的微调效果,提升了同类任务通用语言模型的参数初始化能力和泛化能力。本发明是在下游任务跨域数据集上进行微调,微调所得的压缩模型的效果不受限于该类任务的特定数据集,在预训练语言模型基础上,通过元‑知识微调网络对下游任务进行微调,由此得到与数据集无关的同类下游任务语言模型。
-
-
-
-
-
-
-
-
-