-
公开(公告)号:CN114281554A
公开(公告)日:2022-04-05
申请号:CN202210218607.1
申请日:2022-03-08
Applicant: 之江实验室
Abstract: 本发明公开了一种用于3D图像处理的3D‑CNN加速方法及装置、电子设备,包括:将3D图像进行预处理,得到3D特征图数据,将所述3D特征图数据存放到全局内存;将所述全局内存中的3D特征图数据进行隐式数据转化,得到第一中间数据;将所述第一中间数据写入到共享内存中;在所述共享内存中分配出读取缓冲区与写入缓冲区,通过第一中间数据在读取缓冲区与写入缓冲区交替传输,实现所有第一中间数据都写入寄存器;对所述寄存器中的第一中间数据进行分块;将分块后的第一中间数据进行计算,得到第二中间数据;对所述第二中间数据进行所述隐式数据转化的逆过程,重新转化成新的3D特征图数据;将所述新的3D特征图数据存放到所述全局内存中。
-
公开(公告)号:CN112598129A
公开(公告)日:2021-04-02
申请号:CN202110236303.3
申请日:2021-03-03
IPC: G06N3/08
Abstract: 本发明提出了一种基于ReRAM神经网络加速器的可调硬件感知的剪枝和映射框架,该剪枝和映射框架包括DDPG代理器和ReRAM神经网络加速器;所述DDPG代理器由行为决策模块Actor和评判模块Critic组成,其中,行为决策模块Actor用于对神经网络做出剪枝决策;ReRAM神经网络加速器用于映射行为决策模块Actor产生的剪枝决策下形成的模型,并将此剪枝决策下的模型映射的性能参数作为信号反馈给评判模块Critic;所述性能参数包括模拟器的能耗、延迟和模型准确率;评判模块Critic根据反馈的性能参数更新奖励函数值,并指导行为决策模块Actor下一阶段的剪枝决策;本发明方法利用强化学习DDPG代理来做出与硬件和用户需求最匹配、最高效的剪枝方案,在保证准确率的同时,提升了硬件上延迟性能和能耗性能。
-
公开(公告)号:CN111459552B
公开(公告)日:2020-10-13
申请号:CN202010545142.1
申请日:2020-06-16
Applicant: 之江实验室
Abstract: 本发明公开了一种并行化存内计算的方法及装置,该方法利用现有DRAM内存存储电路的充放电特性实现了并行化的加法计算,并且通过优化数据存储及计算流程,进一步提高了数据并行计算的效率。本发明使得数据存储与计算都可以在DRAM中实现,可大大地缓解内存墙问题,同时不需要依赖新型非易失存储器件,可降低内存计算的复杂度和成本。
-
公开(公告)号:CN111459552A
公开(公告)日:2020-07-28
申请号:CN202010545142.1
申请日:2020-06-16
Applicant: 之江实验室
Abstract: 本发明公开了一种并行化存内计算的方法及装置,该方法利用现有DRAM内存存储电路的充放电特性实现了并行化的加法计算,并且通过优化数据存储及计算流程,进一步提高了数据并行计算的效率。本发明使得数据存储与计算都可以在DRAM中实现,可大大地缓解内存墙问题,同时不需要依赖新型非易失存储器件,可降低内存计算的复杂度和成本。
-
公开(公告)号:CN114968588B
公开(公告)日:2025-02-28
申请号:CN202210632036.6
申请日:2022-06-07
Applicant: 之江实验室
Abstract: 本发明公开一种面向多并发深度学习训练任务的数据缓存方法和装置,该方法包括:步骤一,对多并发任务中每个任务执行预热训练,采集任务训练批次样本的特征参数,根据特征参数对所有任务进行排序;步骤二,计算每个任务在系统预分配下每个训练批次样本在缓存空间中的样本数目和每个任务期望每个训练批次样本在缓存空间中的样本数目;步骤三,采用缓存动态分配和管理策略并发执行任务的深度学习训练;步骤四,当各任务进入最后一个训练周期时,不再有新的样本数据加入这些任务的缓存空间,同时随着缓存空间内的样本数据被逐渐使用消耗,被占用的缓存空间逐步被释放,被释放的缓存空间被其他尚未结束的任务使用。本发明提高了全局缓存空间的利用率。
-
公开(公告)号:CN119179935B
公开(公告)日:2025-02-11
申请号:CN202411684885.1
申请日:2024-11-22
Applicant: 之江实验室
IPC: G06F18/24 , G06F18/214 , G06F18/40
Abstract: 本说明书公开了一种基于数据质量的数据存储方法、介质及设备。获取初始数据集。针对初始数据集中的每个数据,将该数据分别输入预设的各标注模型,得到每个标注模型针对该数据的标注结果,作为该数据对应的标注集。根据初始数据集中每个数据对应的标注集,在初始数据集中进行数据筛选,以构建出目标数据集。确定预设的计算节点在执行目标模型的模型训练任务时的数据访问信息,以及确定目标数据集中各数据对应的数据特性信息,根据数据访问信息以及目标数据集中包含的各数据对应的数据特性信息,确定计算节点在执行目标模型的模型训练任务时目标数据集中各数据的存储位置,并按照存储位置,将目标数据集作为训练样本进行存储。
-
公开(公告)号:CN119293219A
公开(公告)日:2025-01-10
申请号:CN202411805809.1
申请日:2024-12-10
Applicant: 之江实验室
IPC: G06F16/334 , G06N3/0464 , G06N3/042 , G06F18/241 , G06F18/214
Abstract: 本申请涉及一种网络社交动态的情感分类方法、系统、设备和存储介质,通过对社交动态的文本进行预处理,得到预处理后的数据集;根据数据集构建包含词节点和社交动态节点的语义图;根据社交动态的话题属性,以及发布社交动态的用户的用户间关系,提取社交动态之间的关联信息,并根据社交动态之间的关联信息建立社交动态节点之间的连接关系,得到包含语义关系和社交关系的社交动态多层图;将社交动态多层图输入至集成模型进行处理,得到社交动态的情感分类结果;其中,集成模型由基于双曲学习的图卷积神经网络和大规模预训练语言模型构成;提升了社交动态的情感分类的准确度。
-
公开(公告)号:CN119179581A
公开(公告)日:2024-12-24
申请号:CN202411684883.2
申请日:2024-11-22
Applicant: 之江实验室
IPC: G06F9/50 , G06F16/182 , G06F3/06 , G06N3/0499 , G06N3/084
Abstract: 本说明书公开了一种存储资源调度方法、装置、存储介质及电子设备,可以通过预先构建的包含有多级分层的数据存储系统,执行针对目标模型的训练任务,并在执行针对目标模型的训练任务的过程中,可以基于预先确定的不同训练样本的数据质量参数,以及目标模型在不同的训练周期的不同的状态参数下对数据质量不同的训练样本数据的需求,对设置于不同分层中的不同异构存储资源进行调度管理,以提升水平方向的数据存取效率,从而可以从横纵两方面全面提升数据的存取效率,进而可以提升模型的训练效率。
-
-
公开(公告)号:CN118642661B
公开(公告)日:2024-11-08
申请号:CN202411092481.3
申请日:2024-08-09
Applicant: 之江实验室
Abstract: 本发明公开了一种分布式深度学习缓存数据存储的方法和装置,其方法包括:使用细粒度的缓存数据布局方法,充分利用下一周期的随机访问序列指导数据在缓存节点的布局,然后以异步方式动态地将每个样本数据精确迁移到目标缓存节点,并将每个训练进程的数据摄取请求动态调度到目标缓存节点,使得任一时间段内各缓存节点收到的数据摄取请求数目都是相当的,从而保证每个缓存节点上的存储、网络等资源都能充分利用,当模型训练任务提升数据载入的并发度时,缓存数据摄取的并发度也相应提升,显著加快模型训练任务摄取数据的速度。
-
-
-
-
-
-
-
-
-