-
公开(公告)号:CN116931955B
公开(公告)日:2024-01-09
申请号:CN202311202659.0
申请日:2023-09-18
Applicant: 之江实验室
Abstract: 本说明书公开了基于人工智能的编译器自动调优方法及装置,在此方法中,将程序输入到模型中得到各优化序列,编译器针对每个优化序列对程序进行编译运行得到实际运行时间,据此来调整智能体模型输出各优化序列的概率,使得训练后的智能体模型能够输出最优的优化序列,而编译器使用最优优化序列对待运行程序进行编译优化,从而在一定程度上提高运行效率和减少资源浪费。
-
公开(公告)号:CN116755862A
公开(公告)日:2023-09-15
申请号:CN202311010092.7
申请日:2023-08-11
Applicant: 之江实验室
IPC: G06F9/48 , G06T1/20 , G06V10/764 , G06V10/774
Abstract: 本说明书公开了一种算子优化调度模型的训练方法、装置、介质及设备,包括:确定当前时刻作为训练样本的预先基于图像数据训练的图像分类模型中的各算子的信息,并输入待训练的算子优化调度模型,确定当前时刻待优化算子。确定对待优化算子进行优化后的待优化算子对图像数据进行图像分类时的运行下降时间。再根据信息、待优化算子以及待优化算子对图像数据进行图像分类时的运行下降时间,对待训练的算子优化调度模型进行训练,使得可以通过训练完成的算子优化调度模型确定当前时刻所需调度进行优化的算子,减少人工设计选择所需优化的算子的策略的麻烦,加快后续将待部署的图像分类模型部署到硬件上的速度。
-
公开(公告)号:CN116721399A
公开(公告)日:2023-09-08
申请号:CN202310925867.7
申请日:2023-07-26
Applicant: 之江实验室
IPC: G06V20/56 , G06V20/58 , G06V20/70 , G06V10/774 , G06V10/80 , G06V10/82 , G06N3/0495 , G06N3/045 , G06N3/0464 , G06N3/048 , G06N3/08
Abstract: 本说明书公开了一种量化感知训练的点云目标检测方法及装置,可以获取训练样本,将训练样本中的点云样本数据输入到全精度网络中,得到目标检测结果,以对全精度网络进行训练,得到训练后的全精度网络,而后,将训练后的全精度网络进行模型量化,得到量化后网络,量化后网络的参数精度低于全精度网络的参数精度,而后,将训练样本输入到量化后网络中,得到量化后网络得到的目标检测结果,根据标注信息和目标检测结果,对量化后网络进行参数微调训练,得到训练后的量化后网络,最后,将训练后的量化后网络部署在无人驾驶设备中,以使无人驾驶设备通过量化后网络进行点云目标检测,从而在保证准确性的情况下提高了无人驾驶设备的点云检测效率。
-
公开(公告)号:CN116502679A
公开(公告)日:2023-07-28
申请号:CN202310543696.1
申请日:2023-05-15
Applicant: 之江实验室
IPC: G06N3/0464 , G06N3/063 , G06N3/08
Abstract: 本说明书公开了一种模型构建方法、装置、存储介质及电子设备,可以对需要进行测试的各候选模型架构进行筛选,以筛选出通过代理模型预测出的性能参数的准确率较低的部分候选模型架构,来通过部署测试模型的方式获得该候选模型架构的真实性能参数,而针对剩余的候选模型架构,可以直接通过代理模型来获取出性能参数,并且可以通过主动学习的方法,在线对代理模型进行训练,从而可以在保证候选模型架构的性能评估准确率的同时,提升自动化构建深度学习模型的效率。
-
公开(公告)号:CN116382599A
公开(公告)日:2023-07-04
申请号:CN202310669715.5
申请日:2023-06-07
Applicant: 之江实验室
Abstract: 本说明书公开了一种面向分布式集群的任务执行方法、装置、介质及设备。所述面向分布式集群的任务执行方法包括:获取样本数据,根据磁盘带宽和本地延迟,以及网络带宽和网络延迟,对样本数据的数量进行划分,将第一样本数量的样本数据存储在各计算节点的本地磁盘,将第二样本数量的样本数据存储在存储节点,针对每个计算节点,将该计算节点的本地磁盘中指定数量的样本数据与其他计算节点的本地磁盘中的样本数据进行交换,得到更新后样本数据,以及,从所述存储节点中读取远端样本数据,根据更新后本地样本数据和远端样本数据,在该计算节点上执行当前训练周期针对目标模型的训练任务。
-
公开(公告)号:CN116301904A
公开(公告)日:2023-06-23
申请号:CN202310559970.4
申请日:2023-05-18
Applicant: 之江实验室
IPC: G06F8/41 , G06N3/006 , G06N3/0475 , G06N3/08
Abstract: 本发明公开了一种用于深度学习编译器的算子优化加速方法及装置,目的是减少算子优化空间的搜索时间。该方法首先将神经网络抽象成计算图的形式,再对计算图进行图优化,并为优化后的计算图中的每个算子定义优化空间。然后以LightGBM为代价模型,粒子群优化算法为搜索算法对优化空间进行搜索。在每轮搜索中,对搜索算法输出的候选解采用DBSCAN进行聚类和采样,减少在硬件上的实测次数,进一步提升搜索效率。
-
公开(公告)号:CN116257515A
公开(公告)日:2023-06-13
申请号:CN202310545378.9
申请日:2023-05-16
Applicant: 之江实验室
IPC: G06F16/215 , G06F16/29 , G06F18/22 , G06F18/241 , G06N20/00 , G06F40/289
Abstract: 本发明涉及一种基于机器学习的地理兴趣点去重方法、装置和介质,方法包括以下步骤:获取目标地理兴趣点和数据库地理兴趣点;对目标地理兴趣点和数据库地理兴趣点进行预处理,计算对应的相似度特征向量;将该相似度特征向量输入预先训练的地理兴趣点重复判别二分类器中,得到目标地理兴趣点和数据库地理兴趣点是否重复的判别结果;根据目标地理兴趣点和数据库地理兴趣点是否重复的判别结果确定是否将目标地理兴趣点放入数据库中。与现有技术相比,本发明具有可自动化识别两个地理兴趣点是否重复,提高了地理兴趣点重复判别的准确率等优点。
-
公开(公告)号:CN118313429B
公开(公告)日:2024-10-11
申请号:CN202410763197.8
申请日:2024-06-13
Applicant: 之江实验室
Abstract: 本申请涉及一种模型训练显存优化方法、装置、电子装置和存储介质,其中,该模型训练显存优化方法包括:获取模型原始参数,将模型原始参数进行备份,得到备份参数;根据模型结构确定候选暂退的模型连接;对候选暂退的模型连接不分配显存,并为除候选暂退的模型连接之外的其他模型连接分配显存;执行循环训练过程直至达到预设的训练终止条件,得到目标训练模型;循环训练过程包括:根据预设的暂退比例,对候选暂退的模型连接进行随机暂退后,得到目标连接;根据目标连接,从备份参数中复制参数进行半精度训练,得到半精度参数梯度;根据半精度参数梯度更新备份参数,提高了模型训练中显存的利用率和训练速度。
-
公开(公告)号:CN118468045B
公开(公告)日:2024-09-24
申请号:CN202410937902.1
申请日:2024-07-12
Applicant: 之江实验室
IPC: G06F18/214 , G06N3/0442 , G06N3/0455 , G06N3/048 , G06N3/08
Abstract: 本说明书公开了一种模型训练加速方法、装置及存储介质,本方法用于在存算分离模式下使用重要性采样方法进行训练的目标模型的训练样本。通过在存储层级预测模型中设置特征重构模块及长短期记忆网络模块,利用特征重构模块,对训练样本被访问信息的特征参数进行特征重构,使得存储层级预测模型充分学习被访问信息的特征。之后,利用长短期记忆网络克服了梯度消失和梯度爆炸的问题。那么,将重构特征输入长短期记忆网络模块,得到预测结果。根据预测结果及标签,对存储层级预测模型进行训练,提高了存储层级预测模型的预测目标模型所需的训练样本的存储层级的准确率,进而提高了上级缓存命中率,加速目标模型训练。
-
公开(公告)号:CN118570560A
公开(公告)日:2024-08-30
申请号:CN202411044024.7
申请日:2024-07-31
Applicant: 之江实验室
IPC: G06V10/764 , G06V10/774 , G06V10/778
Abstract: 本说明书公开了一种训练图像分类模型的系统、方法、装置、介质及设备,代理节点通过数据分发模型确定训练数据的分发策略,根据分发策略为各训练节点分发训练数据。各训练节点缓存训练数据,在接收到训练任务时,先从本地缓存中获取执行训练任务所需要的训练数据,当本地缓存中的训练数据不能与执行训练任务所需要的训练数据匹配时,再获取执行训练任务所需要的且未在本地缓存的其他训练数据,从而完成训练任务。各训练节点在执行训练任务时,可确定本地缓存命中率并返回给代理节点。代理节点基于各训练节点的本地缓存命中率调整数据分发模型的参数,从而优化分发策略,以提高训练节点中训练数据的本地缓存命中率,提高图像分类模型的训练效率。
-
-
-
-
-
-
-
-
-