数据流映射搜索方法、系统、电子设备及存储介质

    公开(公告)号:CN117291237A

    公开(公告)日:2023-12-26

    申请号:CN202311173877.6

    申请日:2023-09-11

    Abstract: 本申请实施例提供了一种数据流映射搜索方法、系统、电子设备及存储介质,从脉冲神经网络卷积过程中获取数据类型以及对应划分的维度数据,并形成多个数据流映射集合;获取集群节点数量以及处理器核心数,确定数据集群的总并行线程数,并创建并行线程;根据数据流映射集合和总并行线程数得到每个并行线程的数据流映射搜索数,为每个并行线程分配数据流映射,并根据每个存储层次的预设存储规则数据流映射进行筛选,得到多个候选数据流映射;在每个并行线程中,对每个候选数据流映射进行能量计算,并将能量计算结果与历史能量计算结果进行比较,若能量计算结果低于历史能量计算结果,将能量计算结果对应的候选数据流映射作为目标数据流映射。

    任务调度方法、电子设备及存储介质

    公开(公告)号:CN117215735A

    公开(公告)日:2023-12-12

    申请号:CN202310969665.2

    申请日:2023-08-01

    Abstract: 本申请公开了一种任务调度方法、电子设备及存储介质,应用于人工智能领域,包括:由计算节点获取训练数据和模型超参数;由计算节点将训练数据和模型超参数输入至训练好的元学习模型,得到模型功耗;由计算节点根据模型功耗得到节点信息,并将节点信息发送至对应的调度节点;由调度节点根据节点信息将计算节点划分为多个分布式集群,以形成多条传输路径;由计算节点获取任务数据,并通过对应的传输路径对任务数据进行任务调度。本申请实施例通过元学习模型对系统功耗进行预测,以使设备节点层的设备节点对应形成有传输路径,从而降低了任务数据在不同计算节点进行计算的功耗,降低了计算负荷,进而提高了能源利用率,提高了任务执行效率。

    iTPN模型在MindSpore框架的适配方法及装置

    公开(公告)号:CN117057392A

    公开(公告)日:2023-11-14

    申请号:CN202310928096.7

    申请日:2023-07-26

    Abstract: 本申请公开了iTPN模型在MindSpore框架的适配方法、装置及存储介质,适配方法通过将训练数据转换成适于输入MindSpore框架的MindRecord文件并对转换后的数据进行数据增强,然后将iTPN模型中Pytorch的模型参数和模型函数映射到MindSpore框架中,并按照各层权重进行精度转换以适于MindSpore框架的计算精度,还设定逐层学习率,在实际训练过程中基于当前层的学习率进行优化,并实现数据并行、优化器并行和梯度合并处理,节省了GPU的计算负担,加快了适配到MindSpore框架后的计算效率,适配后的模型能够作为基础网络用于多种下游任务,从而提升下游任务的性能精度。

    AI处理器实时的参数预测方法、系统、设备及介质

    公开(公告)号:CN116627433A

    公开(公告)日:2023-08-22

    申请号:CN202310881075.4

    申请日:2023-07-18

    Abstract: 本申请提供了一种AI处理器实时的参数预测方法、系统、设备及介质,属于人工智能技术领域。方法包括:在AI处理器上运行目标应用程序,在建模阶段,采集AI处理器运行过程中的基本参数;实时通过AI处理器对应的非侵入式调节工具调节基本参数,并在实时调节过程中获取各个基本参数对应的目标运行参数;基于多个目标运行参数与对应的基本参数进行拟合操作,建立由基本参数映射到目标运行参数的函数模型;在预测阶段,获取实时的基本参数,并将实时的基本参数输入到函数模型中,得到预测的目标运行参数,以根据预测的目标运行参数确定参数预测结果。本申请可以在AI处理器上在线部署运行,无需额外的计算资源,预测的结果可靠性高。

    一种基于中心点的细胞核分割方法及相关设备

    公开(公告)号:CN116433704A

    公开(公告)日:2023-07-14

    申请号:CN202211705880.3

    申请日:2022-12-29

    Abstract: 本发明公开了一种基于中心点的细胞核分割方法及相关设备,所述方法包括:基于无监督聚类的伪标签生成算法对细胞核图像聚类,生成细胞核分割网络模型训练时所需要的实例像素级伪标签;在得到三分类的伪标签实例化结果后,采用非边界框依赖的实例分割框架进行细胞核分割网络模型的训练;对细胞核中心点检测网络进行训练,通过取局部最大值和滤波操作得到预测的细胞核中心点;将细胞核的分割结果和检测结果进行融合和切割处理,得到修正后的细胞核实例分割结果。本发明将伪标签处理成内核‑轮廓‑背景三分类的分类图,从而能让网络更好地关注细胞核的轮廓,对细胞核中心点进行预测,使用分水岭算法对分割结果进行处理,提升了粘连细胞核实例化效果。

    基于注意力机制的小样本分割方法、装置、终端及介质

    公开(公告)号:CN116258937A

    公开(公告)日:2023-06-13

    申请号:CN202211569888.1

    申请日:2022-12-08

    Abstract: 本发明公开了基于注意力机制的小样本分割方法、装置、终端及介质,包括:输入支持图片、支持图片对应的掩码图以及待预测查询图片;通过权重共享的编码器分别提取待预测查询图片的特征和支持图片的特征;将支持图片的特征和支持图片对应的掩码图输入原型生成算法,得到一对互补的原型;将一对互补的原型扩展至待预测查询图片的尺寸,并与待预测查询图片进行拼接,通过FPN结构的解码器预测拼接后的前后背景,得到分割结果;根据双线性插值算法将分割结果恢复至原始图像尺寸大小,得到小样本分割结果。本发明以一种权重互补的方式构建一对原型,从而在原型生成过程中尽量地保留的有效信息,减少原型偏置造成的分类错误,提高判断精度。

    一种面向人眼观看和视觉分析联合优化的图像压缩方法

    公开(公告)号:CN113840145B

    公开(公告)日:2023-06-09

    申请号:CN202111115605.1

    申请日:2021-09-23

    Abstract: 本发明公开了一种面向人眼观看和视觉分析联合优化的图像压缩方法,所述方法包括:获取原始图像,并对所述原始图像进行特征提取和量化,得到第一特征;对所述第一特征进行熵编码得到比特流,并将所述比特流发送至预设的解码器;控制所述解码器接收所述比特流,并将所述比特流还原为第一特征;将所述第一特征输入预设的深度解码网络,输出得到类别向量;将所述类别向量输入第一全连接网络,输出图像分类的类别概率,并根据所述类别概率对所述原始图像进行分类;根据所述第一特征对所述原始图像进行重构,得到重构图像。本申请可以在对原始图像压缩的过程中同时考虑原始图像的重构和分类。

    一种点云属性编码方法、解码方法、编码设备及解码设备

    公开(公告)号:CN116233427A

    公开(公告)日:2023-06-06

    申请号:CN202111482269.4

    申请日:2021-12-06

    Abstract: 本发明公开了一种点云属性编码方法、解码方法、编码设备及解码设备,其中,上述点云属性编码方法包括:基于预测参考点集对当前待编码点进行属性预测,得到上述当前待编码点的属性预测值;基于上述当前待编码点的属性预测值进行编码,得到点云码流;基于预设的规则更新上述预测参考点集,上述预设的规则基于上述预测参考点集中的点的三维位置坐标执行。与现有技术中仅考虑一维排列顺序的邻居点集相比,本发明中的预测参考点集基于点的三维位置坐标进行构建和更新,从而充分、高效地利用各个点的位置信息进行属性预测。基于上述预测参考点集进行编码,则有利于提高编码效率。

    基于CPU-NPU协同的高扩展节点系统及训练方法

    公开(公告)号:CN116074179A

    公开(公告)日:2023-05-05

    申请号:CN202310203989.5

    申请日:2023-03-06

    Abstract: 本发明公开了一种基于CPU‑NPU协同的高扩展节点系统及训练方法,所述系统包括:通用算力模块、AI算力模块、层次访存模块、数据缓存模块和网络接口模块;通用算力模块和AI算力模块进行分组互连,用于AI节点内片间互连的扩展;层次访存模块用于在通用算力模块与AI算力模块处理数据时提供通用计算的大内存和AI计算的高带宽;数据缓存模块用于处理通用算力模块在计算时的数据IO吞吐;网络接口模块用于将通用算力模块和AI算力模块在计算时进行分离通信。本发明从AI节点的互连、访存、存储、网络接口出发提出高扩展节点架构,实现AI算力‑层次访存‑片间互连均衡设计,以满足AI大模型训练需求。

    一种NPU集群网络结构和网络互连方法

    公开(公告)号:CN115809685A

    公开(公告)日:2023-03-17

    申请号:CN202310088059.X

    申请日:2023-02-09

    Abstract: 本发明涉及通信技术领域,具体是涉及一种NPU集群网络结构和网络互连方法。本发明将用于神经网络模型训练的节点划分为两组,分别是第一组处理器和第二组处理器,而且将网络平面也划分为两个平面,一个网络平面只负责一组处理器在训练神经网络模型过程中产生数据的传输,从而提升了由各个NPU处理器构成的NPU集群传输数据的效率,一旦传输数据的效率提升,那么数据传输的效率提升,则数据传输的效率就不会制约NPU集群的算力,从而提升了NPU集群的算力。

Patent Agency Ranking