媒体信息的处理方法、装置、设备及可读存储介质

    公开(公告)号:CN117908994A

    公开(公告)日:2024-04-19

    申请号:CN202410322444.0

    申请日:2024-03-20

    Abstract: 本申请公开了一种媒体信息的处理方法、装置、设备及可读存储介质,属于计算机技术领域。方法包括:获取目标权重矩阵和特征矩阵,目标权重矩阵包括多个第一矩阵块,特征矩阵包括多个第二矩阵块;将多个第一块组合依次加载到至少两个第一存储区域,第一块组合包括第一矩阵块和第二矩阵块;在加载过程中,对已加载到第一存储区域的各个第二块组合依次进行矩阵运算,得到各个第二块组合的运算结果,第二块组合包括第一矩阵块和第二矩阵块;基于各个第二块组合的运算结果,确定目标权重矩阵和特征矩阵的矩阵运算结果。本申请实现了提前加载好矩阵块,保证运算单元一直处于运算状态,提高了通过神经网络对媒体信息进行处理的效率。

    图像处理方法、装置、存储介质及设备

    公开(公告)号:CN108765247A

    公开(公告)日:2018-11-06

    申请号:CN201810464173.7

    申请日:2018-05-15

    Inventor: 戴彦 李彦融 姚达

    CPC classification number: G06T1/00 G06N3/0454

    Abstract: 本发明公开了一种图像处理方法、装置、存储介质及设备,属于深度学习领域。方法包括:对于预设卷积神经网络的每一个卷积层,获取输入卷积层的特征图;对特征图进行第一预处理,根据预处理后的特征图生成第一矩阵,预处理后的特征图中连续使用的特征数据被排布第一矩阵中的相邻位置;对卷积层的至少一个卷积核的权重进行第二预处理,根据预处理后的权重生成第二矩阵,预处理后的权重中连续使用到的权重被排布于第二矩阵的相邻位置;对第一矩阵和第二矩阵中的每行元素执行外积操作,在对得到的外积运算结果进行第三预处理后,得到卷积层输出的卷积运算结果。在实现winograd卷积加速运算时,有效提升了计算密度以及内存访问效率,降低了硬件实现的复杂度。

    模型的处理方法和装置、存储介质及电子设备

    公开(公告)号:CN118093518B

    公开(公告)日:2024-07-12

    申请号:CN202410504878.2

    申请日:2024-04-25

    Abstract: 本申请公开了一种模型的处理方法和装置、存储介质及电子设备。其中,该方法包括:获取待载入的初始模型文件和预先设定的目标数据格式;在初始模型文件的模型精度与目标数据格式指示的模型精度不同时,按照目标数据格式对初始模型文件执行在线量化操作得到目标模型文件;加载目标模型文件后根据输入文本确定目标输入矩阵;在输入文本的数据格式与目标数据格式不同时,根据第一尺寸和第二尺寸确定目标核函数,并使用目标核函数对目标输入矩阵和权重矩阵执行矩阵乘处理,确定目标输出结果。本申请解决了由于模型数据量过大,导致模型的加载效率较低的技术问题,本申请实施例可应用于云技术、人工智能、智慧交通、辅助驾驶等各种场景。

    模型推理方法、装置、计算机设备、存储介质和产品

    公开(公告)号:CN116976440A

    公开(公告)日:2023-10-31

    申请号:CN202211717021.6

    申请日:2022-12-29

    Abstract: 本申请实施例公开了一种模型推理方法、装置、计算机设备、存储介质和产品,通过获取在深度学习推理框架下构建的神经网络模型;通过图统一计算设备架构,对深度学习推理框架针对神经网络模型的计算流程进行捕获,得到与计算流程对应的捕获图,捕获图包含有多个节点;对捕获图中与数据传输相关的目标节点进行过滤,得到过滤后捕获图和目标节点对应的节点内容;基于目标节点对应的节点内容运行过滤后捕获图,得到神经网络模型对应的推理结果。图统一计算设备架构可以将深度学习推理框架下的神经网络模型的计算流程捕获为一张捕获图,进而减少内核启动延迟,提高对神经网络模型的推理速度,且不需要对神经网络模型中的算子进行融合,应用难度小。

    一种数据查询方法和相关装置
    6.
    发明公开

    公开(公告)号:CN116955421A

    公开(公告)日:2023-10-27

    申请号:CN202211509227.X

    申请日:2022-11-29

    Abstract: 本申请公开一种数据查询方法和相关装置,将计算机设备的内存设置为内存缓存,以存储待处理数据。根据第一待查询数据标识在内存缓存中查询对应的待处理数据得到第一查询结果。若确定在内存缓存中完成查询,对第一待查询数据标识对应的待处理数据进行输出。若确定内存缓存中缺失第一数据标识对应的待处理数据,在参数服务器中查询第一数据标识对应的待处理数据得到第二查询结果,第一数据标识为第一待查询数据标识中的数据标识,然后根据第一查询结果和第二查询结果对第一待查询数据标识对应的待处理数据进行输出,并利用第二查询结果中包括的第一数据标识对应的待处理数据对内存缓存进行更新。由此提高数据查询速度,提高数据处理速度,减少延迟。

    一种数据处理方法、装置和存储介质

    公开(公告)号:CN109542512B

    公开(公告)日:2020-09-04

    申请号:CN201811313447.9

    申请日:2018-11-06

    Abstract: 本发明实施例公开了一种数据处理方法、装置和存储介质;本发明实施例在获取到预设卷积神经网络后,可以确定当前卷积层,并获取该当前卷积层的扩位通道值,然后,在利用该当前卷积层对输入数据进行特征提取和特征累加的过程中,对累加的通道数进行统计,并在累加的通道数达到该扩位通道值的整数倍时,对当前卷积层在寄存器中的运算位数进行扩展,以对累加过程产生的数据进行存储;该方案可以在避免溢出的同时,降低指令的数量和卷积运算复杂度,实现性能加速及计算资源消耗的减少。

    高分辨率图片生成方法、生成装置及存储介质

    公开(公告)号:CN108022212B

    公开(公告)日:2022-07-01

    申请号:CN201711191101.1

    申请日:2017-11-24

    Abstract: 本发明提供一种高分辨率图片生成方法,其包括:获取至少一个深度神经网络模型;获取低分辨率图片;根据低分辨率图片,确定对应的深度神经网络模型;通过深度神经网络模型,将低分辨率图片转换为高分辨率图片;其中深度神经网络模型包括交替使用不同参数矩阵作为卷积模板参数的多个非线性转换卷积层。本发明还提供一种高分辨率图片生成装置,本发明的高分辨率图片生成方法以及生成装置通过创建具有非线性转换卷积层的深度神经网络模型,提高了将低分辨率图片转换为高分辨率图片的准确性,从而降低了交互终端双方的多媒体图片信息的交互成本,提高了交互终端双方的多媒体图片信息的交互效率。

    模型数据处理方法、装置、电子设备及存储介质

    公开(公告)号:CN114168154A

    公开(公告)日:2022-03-11

    申请号:CN202210127026.7

    申请日:2022-02-11

    Abstract: 本申请实施例公开了一种模型数据处理方法、装置、电子设备及存储介质,应用于计算机技术领域。其中方法包括:获取目标模型的多个算子分别对应的中间表示,从多个算子分别对应的中间表示中确定不可融合的中间表示,作为待调整中间表示,对待调整中间表示进行调整,得到可融合的调整中间表示,将除待调整中间表示之外的中间表示及调整中间表示确定为多个待融合中间表示,根据多个算子之间的算法结构对多个待融合中间表示进行融合,得到至少一个目标中间表示,根据至少一个目标中间表示确定调整后的目标模型。采用本申请实施例,可以提升编译优化后的模型效果。本申请实施例可以应用于云技术、人工智能、智慧交通、车载等各种场景。

    数据批量处理方法、装置和存储介质

    公开(公告)号:CN113535349A

    公开(公告)日:2021-10-22

    申请号:CN202110011581.9

    申请日:2021-01-06

    Abstract: 本申请涉及人工智能中的人脸识别,具体涉及一种数据批量处理方法、装置和存储介质。所述方法包括获取目标任务,并确定与目标任务对应的指令流;确定与目标任务对应的索引全集;索引全集中的各索引元素用于指向待处理矩阵中的各内容元素;将索引全集划分成多个数据索引集,并将各数据索引集分别分配至对应的处理通道;其中,每个处理通道所分配的数据索引集的元素数量,大于缓存单元所对应的缓存数量;基于各处理通道分别对应分配的数据索引集,并行地通过各处理通道分别执行与指令流对应的至少一轮的目标操作,直至得到与目标任务对应的操作结果。采用本方法可以提升数据批量处理的处理效率。

Patent Agency Ranking