一种基于图像块评分的细粒度图像分类方法和装置

    公开(公告)号:CN114332544B

    公开(公告)日:2022-06-07

    申请号:CN202210244194.4

    申请日:2022-03-14

    Abstract: 本发明公开了一种基于图像块评分的细粒度图像分类方法和装置,包括以下步骤:步骤S1:构建分类数据集;步骤S2:构建局部标识;步骤S3:构建分类标识;步骤S4:获得图像分类特征信息和各个图像块特征信息;步骤S5:构建关联性局部标识;步骤S6:生成选择标识;步骤S7:特征处理;步骤S8:训练;步骤S9:将所述全局标识和所述关联性局部标识拼接,训练最后一个transformer层。本发明解决类内差异大、类间相似程度高的细粒度图像分类的问题,实现在transformer网络中即插即用,效果提升明显。

    一种基于图像块评分的细粒度图像分类方法和装置

    公开(公告)号:CN114332544A

    公开(公告)日:2022-04-12

    申请号:CN202210244194.4

    申请日:2022-03-14

    Abstract: 本发明公开了一种基于图像块评分的细粒度图像分类方法和装置,包括以下步骤:步骤S1:构建分类数据集;步骤S2:构建局部标识;步骤S3:构建分类标识;步骤S4:获得图像分类特征信息和各个图像块特征信息;步骤S5:构建关联性局部标识;步骤S6:生成选择标识;步骤S7:特征处理;步骤S8:训练;步骤S9:将所述全局标识和所述关联性局部标识拼接,训练最后一个transformer层。本发明解决类内差异大、类间相似程度高的细粒度图像分类的问题,实现在transformer网络中即插即用,效果提升明显。

    一种基于网络深度压缩的模型蒸馏方法、装置和介质

    公开(公告)号:CN114154648A

    公开(公告)日:2022-03-08

    申请号:CN202210124656.9

    申请日:2022-02-10

    Abstract: 本发明涉及模型压缩领域,尤其涉及一种基于网络深度压缩的模型蒸馏方法、装置和介质,该方法使用余弦距离计算不同数据经过模型后的特征关系,基于斯皮尔曼相关公式构建损失函数,将简单模型不同层特征关系与复杂模型最后一层的特征关系进行匹配,并以此构建损失函数,引导简单模型不同层的数据特征关系向复杂模型最深层的数据特征关系靠近,使简单模型的浅层学习到更深层特征信息,从而实现网络深度的压缩。相较于大部分已有知识蒸馏方法主要应用于教师网络和学生网络相近深度的网络层,本发明方法考虑深度对网络提升的影响,直接进行浅层向深层的蒸馏学习,且本发明方法实现方法简便,效果提升显著,并可以与已有知识蒸馏方法同时使用提升效果。

    一种基于均值动态时间规整的车辆轨迹运动模式提取方法

    公开(公告)号:CN114021629A

    公开(公告)日:2022-02-08

    申请号:CN202111248749.4

    申请日:2021-10-26

    Abstract: 本发明公开了一种基于均值动态时间规整的车辆轨迹运动模式提取方法。该方法先对原始轨迹进行初始化和重采样,获取重采样轨迹集合;根据重采样轨迹,计算基于均值动态时间规整的轨迹间距离;基于均值动态时间规整的轨迹间距离度量方法,并运用聚类算法进行聚类,得到聚类簇集合;最后为每个簇分别提取特征运动模式,得到特征运动模式集合。本发明通过采用限定的技术,可以准确地度量相似轨迹间距离,对长序列轨迹间距离度量更精准,适用于长序列轨迹的车辆行为分析,还可以从车辆轨迹数据集中提取特征运动模式;每一条提取的特征运动模式轨迹都可以直观地反映车辆的运动模式,更易于赋予运动模式语义赋予和可视化展示。

    一种深度学习框架适配AI加速芯片的方法和装置

    公开(公告)号:CN113918507A

    公开(公告)日:2022-01-11

    申请号:CN202111497148.7

    申请日:2021-12-09

    Abstract: 本发明的一种深度学习框架适配AI加速芯片的方法和装置,具体分为三个阶段:芯片类型定义、芯片类型注册、芯片内存支持,所述芯片类型定义就是把需要支持的芯片的类型以一个枚举值的形式定义到proto文件中去,从而使得框架内部可以正确识别该芯片类型;芯片类型注册是把该芯片所需的基础设施注册到哈希表中去,便于框架在需要的时候可以根据芯片类型方便地找到相应的内容;芯片内存支持是把该芯片内存相关的操作放到框架中去,使得框架可以对芯片的存储空间进行统一管理。本发明简化了深度学习框架适配AI加速芯片的工作。

    一种去中心化分布式训练拓扑结构、训练系统及方法

    公开(公告)号:CN113824802A

    公开(公告)日:2021-12-21

    申请号:CN202111398769.X

    申请日:2021-11-24

    Abstract: 本发明公开了一种去中心化分布式训练拓扑结构,包括:所述拓扑结构为n维超方形拓扑结构,是封闭的、紧致的、凸的无向图,所述拓扑结构由有限非空节点集合和有限边集合组成,所述拓扑结构的1维骨架是由一群在其所在空间对准每个维度整齐排列的等长的线段组成的,其中相对的线段互相平行,而相交于一点的线段则互相正交,本发明聚焦于去中心化分布式性能训练,将训练任务“均匀化”,将训练任务负荷均匀地分配到分布式训练系统中各个训练节点上,系统性能不再取决于单一训练节点性能,具有迭代耗时短,数据本地化,通信有效性高的优点。

    面向多任务的预训练语言模型自动压缩方法及平台

    公开(公告)号:CN112232511B

    公开(公告)日:2021-03-30

    申请号:CN202011470331.3

    申请日:2020-12-15

    Abstract: 本发明公开了一种面向多任务的预训练语言模型自动压缩方法及平台。该方法设计一种结构生成器的元网络,基于Transformer层采样的知识蒸馏方法构建知识蒸馏编码向量,利用结构生成器生成与当前输入的编码向量对应的蒸馏结构模型;同时提出伯努利分布采样的方法训练结构生成器;每轮迭代时,利用伯努利分布采样的方式迁移各个编码器单元,组成对应的编码向量;通过改变输入结构生成器的编码向量和小批次的训练数据,联合训练结构生成器和对应的蒸馏结构,可以学得能够为不同蒸馏结构生成权重的结构生成器;同时在已训练好的元学习网络基础上,通过进化算法搜索最优压缩结构,由此得到与任务无关的预训练语言模型的最优通用压缩架构。

    面向多任务的预训练语言模型自动压缩方法及平台

    公开(公告)号:CN112232511A

    公开(公告)日:2021-01-15

    申请号:CN202011470331.3

    申请日:2020-12-15

    Abstract: 本发明公开了一种面向多任务的预训练语言模型自动压缩方法及平台。该方法设计一种结构生成器的元网络,基于Transformer层采样的知识蒸馏方法构建知识蒸馏编码向量,利用结构生成器生成与当前输入的编码向量对应的蒸馏结构模型;同时提出伯努利分布采样的方法训练结构生成器;每轮迭代时,利用伯努利分布采样的方式迁移各个编码器单元,组成对应的编码向量;通过改变输入结构生成器的编码向量和小批次的训练数据,联合训练结构生成器和对应的蒸馏结构,可以学得能够为不同蒸馏结构生成权重的结构生成器;同时在已训练好的元学习网络基础上,通过进化算法搜索最优压缩结构,由此得到与任务无关的预训练语言模型的最优通用压缩架构。

    一种任务执行方法、装置、存储介质以及电子设备

    公开(公告)号:CN119377076A

    公开(公告)日:2025-01-28

    申请号:CN202411941286.3

    申请日:2024-12-26

    Abstract: 本说明书公开了一种任务执行方法、装置、存储介质以及电子设备,具体包括:针对每个目标芯片,根据芯片信息和目标模型的模型数据,对该目标芯片执行模型训练任务时的参数进行参数配置。通过配置后的该目标芯片执行模型训练任务,收集模型训练日志数据,确定该目标芯片的性能评估值。根据各目标芯片的性能评估值确定适配目标芯片,通过适配目标芯片执行目标任务。通过此方法可以有效提高针对异构芯片的性能评估效率,并且本说明书对各异构芯片的评测方式更加精准且一致,使得各异构芯片之间的性能差距更为直观,提高最佳适配芯片确定效率的同时,为对芯片进行性能优化,还是为模型训练选择更加适合的应用芯片都提供了更为实用的理论依据和帮助。

    一种基于异构集群的计算框架管理系统及方法

    公开(公告)号:CN117573359A

    公开(公告)日:2024-02-20

    申请号:CN202311604252.0

    申请日:2023-11-28

    Abstract: 本说明书提供的一种基于异构集群的计算框架管理系统及方法,客户端向用户展示可供用户选择不同计算框架的第一页面,并响应于用户的选择操作,确定出目标框架以及目标计算任务,并生成资源请求,以发送至服务器。服务器接收资源请求并从预设的数据库中查询出目标集群资源信息,并根据目标集群资源信息,生成调度请求,进而确定出调度请求对应的目标计算节点,并向目标计算节点发送执行指令,以使目标计算节点释放相应的资源,以执行计算任务。

Patent Agency Ranking