一种基于内存扩展的计算装置、系统及计算方法

    公开(公告)号:CN118394507A

    公开(公告)日:2024-07-26

    申请号:CN202410480894.2

    申请日:2024-04-21

    Inventor: 岳龙 王彦伟 徐冉

    Abstract: 本申请公开了一种基于内存扩展的计算装置、系统及计算方法,涉及计算机技术领域。该装置包括:闪存、闪存控制器、数据流处理模块、子协议复用及仲裁模块、协议控制器、内存、内存控制器;其中,闪存用于存储文件数据,以便直接在计算装置内完成文件加载至内存的操作;闪存控制器与数据流处理模块通过数据路径相连;闪存控制器,用于获取主机处理器发送的文件读任务或文件写任务,并通过内存映射总线发起文件读操作或文件写操作;数据流处理模块,用于根据计算任务通过闪存控制器访问闪存,和/或,根据计算任务通过内存控制器访问内存。缩短了数据的交换路径,提升对内存数据的计算任务的灵活性,避免频繁加载文件导致的时延,提升了计算效率。

    一种图像分类方法、装置、设备和计算机可读存储介质

    公开(公告)号:CN117809095A

    公开(公告)日:2024-04-02

    申请号:CN202311843870.0

    申请日:2023-12-28

    Abstract: 本发明涉及图像处理技术领域,特别是涉及一种图像分类方法、装置、设备和计算机可读存储介质,各图形处理器利用中央处理器发送的子图像数据集对其匹配的初始宽度子图像分类模型进行独立并行训练,以得到训练好的各宽度子图像分类模型;根据合并数据集,分析各宽度子图像分类模型在合并数据集下各层的节点输出的特征图像之间的相似度,以确定出各宽度子图像分类模型之间相似度最大的节点。按照中央处理器传输的合并权重参数,逐层对相似度最大的节点所对应的特征图像进行分析,以得到宽度合并后的图像分类模型,并对其进行并行训练,利用训练好的图像分类模型对获取的待识别图像进行分析,以确定出图像类别,降低了图像分类的通信开销。

    一种数据缓存方法、系统、设备及计算机可读存储介质

    公开(公告)号:CN117648266A

    公开(公告)日:2024-03-05

    申请号:CN202311613188.2

    申请日:2023-11-29

    Abstract: 本发明公开了一种数据缓存方法、系统、设备及计算机可读存储介质,涉及数据处理领域,为解决现有缓存方案需要多次访问远端设备的问题,该数据缓存方法包括:通过计算高速链路模块获取其他计算设备的当前内存数据;确定当前内存数据的类型及存在优先级;基于类型和存在优先级确定当前存储位置;当前存储位置为目标存储空间或原生缓存;将当前内存数据写入当前存储位置。本发明能够提高缓存速度,此外将存在优先级较高的内存数据写入响应速度更快的原生缓存,提高数据访问效率。

    一种数据处理系统及方法
    64.
    发明公开

    公开(公告)号:CN117608838A

    公开(公告)日:2024-02-27

    申请号:CN202311603350.2

    申请日:2023-11-28

    Abstract: 本发明公开了一种数据处理系统及方法,涉及数据处理领域,为解决将数据存储和计算卸载到中央处理器上实现会占用中央处理器资源,该数据处理系统包括主机、至少一个设有高速计算链路接口的存储设备、以及至少一个设有高速计算链路接口的计算设备,其中,主机,用于获取训练数据,将训练数据写入存储设备;计算设备,用于从存储设备中获取训练数据及模型权重数据,基于训练数据及模型权重数据得到本地权重数据,并将本地权重数据写入存储设备;存储设备,用于存储训练数据及本地权重数据,基于所有本地权重数据得到模型权重数据并存储。本发明能够减少对主机的中央处理器的资源的占用,节省了计算设备的缓存空间、算力和带宽。

    一种网络加速方法、装置、设备及相关组件

    公开(公告)号:CN115865672A

    公开(公告)日:2023-03-28

    申请号:CN202211463372.9

    申请日:2022-11-21

    Abstract: 本申请公开了一种网络加速方法、装置、设备及相关组件,该方法包括:接收网络数据包;利用基于FPGA的混联服务链,对网络数据包进行处理,得到各个虚拟网络功能组件的处理结果;其中,混联服务链包括第一类虚拟网络功能组件的串联链路,第二类虚拟网络功能组件的并联链路;对各个处理结果进行整合,得到综合结果。在接收到网络数据包之后,直接利用混联服务链对网络数据包进行处理,由于存在并联链路,因而可以对部分网络功能的分析进行并行加速处理。得到各个处理结果之后,再对各个处理结果进行整合,从而得到综合结果。本申请可以缩短整体处理时长,提升网络功能虚拟化的处理效率。

    一种图像数据的分类方法、装置以及介质

    公开(公告)号:CN115620074A

    公开(公告)日:2023-01-17

    申请号:CN202211411839.5

    申请日:2022-11-11

    Abstract: 本申请公开了一种图像数据的分类方法、装置以及介质,应用于模型蒸馏技术领域。本申请预先构建扩散模型,并使用原始数据集训练得到用于生成图像数据图像生成器,然后构建模型蒸馏框架以获得待蒸馏的图像分类模型;最后将图像生成器生成的图像数据作为参数训练图像分类模型,以得到蒸馏后的目标模型。本方案在模型蒸馏的训练过程中,使用这些生成的数据来代替原始数据集,保留高精度的前提下有效压缩了模型的大小,保证了模型蒸馏过程正常进行。将扩散模型应用在模型蒸馏的机制中,替换传统模型蒸馏中必需的原始数据集,大幅提升了生成图像的品质,在保持模型蒸馏准确度的前提下,进一步减少了参与模型蒸馏所需要的生成图像的规模。

    一种池化异构计算资源的启动配置方法、装置以及介质

    公开(公告)号:CN115296994A

    公开(公告)日:2022-11-04

    申请号:CN202210967888.0

    申请日:2022-08-12

    Abstract: 本申请公开了一种池化异构计算资源的启动配置方法、装置以及介质,应用于通信技术领域。在池化异构计算资源启动后若需要分配IP地址,则向应用服务器同时广播自身的异构计算资源信息和IP地址请求信息。应用服务器接收到IP地址请求信息后分配IP地址,池化异构计算资源选中一个IP地址作为目标IP地址。然后池化异构计算资源在DHCP Request报文中的选项字段中加入目标IP地址以及对应的应用服务器的IP地址,并广播给应用服务器以便于对应的应用服务器返回DHCP ACK报文。相较于原有方案,本申请同时广播自身的异构计算资源信息和IP地址请求信息,提高了池化异构计算资源的启动效率。

    模型程序编译方法、电子设备、程序产品和介质

    公开(公告)号:CN119781776A

    公开(公告)日:2025-04-08

    申请号:CN202510265416.4

    申请日:2025-03-07

    Abstract: 本申请公开了一种模型程序编译方法、电子设备、程序产品和介质,涉及人工智能技术领域,可为神经网络模型中的模型单元设置对应的块级指令,并在将神经网络模型由源程序编译为可执行程序的过程中,可利用该块级指令记录该模型单元的单元类型、输入该模型单元的运算数据所在的内存位置、该模型单元输出的运算结果所存放的内存位置,这样既可以减少编译模型单元所需的指令数量,同时有助于处理器一次性了解模型单元对应的运算操作、运算数据存放位置和运算结果存放位置,这样既可以降低可执行程序的体积和复杂度,同时也有助于提升处理效率。

    一种任务卸载的方法、装置、产品、设备及介质

    公开(公告)号:CN119025186A

    公开(公告)日:2024-11-26

    申请号:CN202411505672.8

    申请日:2024-10-28

    Abstract: 本发明公开了一种任务卸载的方法、装置、产品、设备及介质,涉及边缘计算领域。利用边缘服务器的至少一种异构计算资源待执行终端设备卸载的任务,实现了并行计算的需求,有效降低了处理延迟和功耗;通过用户效用模型来获取用户卸载偏好列表,并根据效用值的排名情况确定出目标边缘服务器,即在确定目标边缘服务器时,考虑到用户的效用值,提高了用户体验感;当目标边缘服务器的资源不满足预设资源要求时,还基于边缘服务器效益模型确定出的效益值的排名情况剔除目标终端设备的卸载任务,保证了目标边缘服务器上能够处理其上分配的终端设备卸载的任务,且考虑了目标边缘服务器的收益,提高了边缘服务器供应商的体验感。

Patent Agency Ranking