一种用于深度学习编译器中探索优化空间的加速方法

    公开(公告)号:CN112579063A

    公开(公告)日:2021-03-30

    申请号:CN202110223874.3

    申请日:2021-03-01

    Abstract: 本发明公开了一种用于深度学习编译器中探索优化空间的加速方法,目的是通过编译技术优化神经网络效果,并大幅减少编译器探索算子优化空间的耗时。该方法首先将神经网络抽象成计算图的形式。其次对计算图进行图优化,并为优化后计算图中的每个算子定义优化空间。然后基于包含优化空间信息的算子,提出一种优化空间相似度计算方法。最后提出一种基于相似度的算子状态空间探索方法,基于相似度对算子进行聚类,对每一个聚类中的核心算子进行全空间探索,同类的其余算子在核心算子最优方案中进行探索,确定整个神经网络每个算子的优化方案。

    一种内存中并行化计算的方法及装置

    公开(公告)号:CN111459552B

    公开(公告)日:2020-10-13

    申请号:CN202010545142.1

    申请日:2020-06-16

    Abstract: 本发明公开了一种并行化存内计算的方法及装置,该方法利用现有DRAM内存存储电路的充放电特性实现了并行化的加法计算,并且通过优化数据存储及计算流程,进一步提高了数据并行计算的效率。本发明使得数据存储与计算都可以在DRAM中实现,可大大地缓解内存墙问题,同时不需要依赖新型非易失存储器件,可降低内存计算的复杂度和成本。

    一种并行化存内计算的方法及装置

    公开(公告)号:CN111459552A

    公开(公告)日:2020-07-28

    申请号:CN202010545142.1

    申请日:2020-06-16

    Abstract: 本发明公开了一种并行化存内计算的方法及装置,该方法利用现有DRAM内存存储电路的充放电特性实现了并行化的加法计算,并且通过优化数据存储及计算流程,进一步提高了数据并行计算的效率。本发明使得数据存储与计算都可以在DRAM中实现,可大大地缓解内存墙问题,同时不需要依赖新型非易失存储器件,可降低内存计算的复杂度和成本。

    一种计算芯片和计算任务的执行方法

    公开(公告)号:CN119336520A

    公开(公告)日:2025-01-21

    申请号:CN202411906036.6

    申请日:2024-12-23

    Abstract: 本说明书公开了一种计算芯片和计算任务的执行方法。所述计算芯片包括:传输模块、计算芯粒以及存储芯粒,所述传输模块中设置有数据缓存子模块,计算芯片的基板上设置有若干个传输模块,针对每个传输模块,该传输模块与至少一个计算芯粒和/或至少一个存储芯粒相连接;传输模块用于,根据访存任务管理数据,从存储芯粒中读取任务数据并存储在数据缓存子模块中,以及,从本地的数据缓存子模块中读取任务数据并发送给目标计算芯粒;存储芯粒用于,存储任务数据,以及,向目标传输模块发送任务数据;计算芯粒用于,根据接收到的任务数据执行计算任务。本方案极大的提高了计算芯片内部的数据访存效率,进一步提高了计算任务的执行效率。

    一种基于数据质量的数据存储方法、介质及设备

    公开(公告)号:CN119179935A

    公开(公告)日:2024-12-24

    申请号:CN202411684885.1

    申请日:2024-11-22

    Abstract: 本说明书公开了一种基于数据质量的数据存储方法、介质及设备。获取初始数据集。针对初始数据集中的每个数据,将该数据分别输入预设的各标注模型,得到每个标注模型针对该数据的标注结果,作为该数据对应的标注集。根据初始数据集中每个数据对应的标注集,在初始数据集中进行数据筛选,以构建出目标数据集。确定预设的计算节点在执行目标模型的模型训练任务时的数据访问信息,以及确定目标数据集中各数据对应的数据特性信息,根据数据访问信息以及目标数据集中包含的各数据对应的数据特性信息,确定计算节点在执行目标模型的模型训练任务时目标数据集中各数据的存储位置,并按照存储位置,将目标数据集作为训练样本进行存储。

    一种任务执行方法、装置、存储介质及电子设备

    公开(公告)号:CN116225669B

    公开(公告)日:2024-01-09

    申请号:CN202310509060.5

    申请日:2023-05-08

    Abstract: 本说明书公开了一种任务执行方法、装置、存储介质及电子设备,可以预先确定出所有可以并行执行的算子组合,进而可以在响应于用户发起的任务请求进行任务执行时,确定需要执行该任务对应的各可执行算子与正在执行其他任务的芯片正在执行的其他任务的算子是否有匹配的可以并行执行的算子组合,若有,则可以通过正在执行其他任务的芯片并行执行该任务请求对应的任务,从而可以提升芯片的计算资源的利用率。

    可重构电路、可重构芯粒间互联的装置及其方法

    公开(公告)号:CN117056279A

    公开(公告)日:2023-11-14

    申请号:CN202311320181.1

    申请日:2023-10-12

    Abstract: 本申请提供一种可重构电路、可重构芯粒间互联的装置及其方法。该可重构电路包括可重构互联模块及控制模块,可重构互联模块用于与一个微凸点组对应连接,微凸点组包括多个微凸点。可重构互联模块包括多个可重构的开关单元。每一个开关单元具有控制端、输入端及输出端,开关单元的控制端连接到控制模块,开关单元的输入端用于接收来自功能模块或测试模块的接口信号,开关单元的输出端用于连接微凸点组中的一个微凸点。控制模块用于接收外部的控制数据,并根据控制数据来控制可重构互联模块中多个开关单元的通断以选择合适的微凸点连通。在开关单元闭合时,与开关单元连接的对应微凸点连通,接口信号可通过开关单元的输入端传递到微凸点。

    一种面向多芯粒芯片的深度学习推理模拟器

    公开(公告)号:CN116523045A

    公开(公告)日:2023-08-01

    申请号:CN202310235465.4

    申请日:2023-03-13

    Abstract: 本发明公开了一种面向多芯粒芯片的深度学习推理模拟器,包括:配置输入层,用于获取模拟所需的深度学习模型、多芯粒芯片架构和映射策略;模型解析层,用于根据映射策略对所述深度学习模型进行解析,得到模型解析表;路由生成层,用于根据模型解析表中每个算子的运行策略分析算子内路由和算子间路由并生成路由文件;推理模拟层,用于进行深度学习模型在多芯粒芯片架构所描述的多芯粒芯片上的推理模拟,将路由文件分层次并通过片上网络模拟器进行多进程并行模拟,得到各算子路由所需的周期数;结果计算层,用于将推理模拟层中并行模拟得到的算子路由周期数进行整理计算,得到深度学习模型在多芯粒芯片上推理模拟的周期数和平均设备利用率。

    时序InSAR大气相位去除和形变解算的方法及系统

    公开(公告)号:CN116148855B

    公开(公告)日:2023-07-21

    申请号:CN202310349555.6

    申请日:2023-04-04

    Abstract: 本发明公开了一种时序InSAR大气相位去除和形变解算的方法及系统,该方法首先获取监测区的时间序列SAR图像及DEM数据,并进行预处理、差分干涉、滤波及相位解缠;其次构建含有大气相位的差分干涉图的样本库;再基于条件生成对抗神经网络CGAN对样本库进行增广并构建完整版样本库;然后基于TransUNet网络构建大气相位去除TransUNet网络模型,并进行训练和测试,以去除差分干涉图中的大气相位;最后基于去除大气相位后的差分干涉图进行时序InSAR的形变解算,以获取监测区的地表形变信息。本发明能够突破现有InSAR技术中无法完全消除大气相位误差的技术瓶颈,同时提高了时序InSAR形变解算的精度。

    基于软件自测试的千核片上网络并行在线测试方法

    公开(公告)号:CN115629962A

    公开(公告)日:2023-01-20

    申请号:CN202211148482.6

    申请日:2022-09-21

    Inventor: 张颖 季鹏飞 杨弢

    Abstract: 本发明属于集成电路测试技术领域,公开了一种基于软件自测试的千核片上网络在线测试方法,包括如下步骤:步骤1:使用有界模型检验为软件自测试方法自动生成测试向量;步骤2:使用蒙特卡洛模拟方法解决测试数据包配置的选择问题;步骤3:在蒙特卡洛模拟过程中增加多线程机制。本发明不仅能够实现高测试质量,还能降低测试开销。此外,本发明是在千核片上网络的功能模式下进行在线测试,这可以有效地避免数据包在功能模式下出现不可测转向,从而能够避免过度测试问题。

Patent Agency Ranking