-
公开(公告)号:CN117037913A
公开(公告)日:2023-11-10
申请号:CN202311285979.7
申请日:2023-10-07
Applicant: 之江实验室
Abstract: 本说明书公开了一种蛋白质多序列比对方法、装置、存储介质及电子设备。所述蛋白质多序列比对方法包括:获取待比对蛋白质序列的特征表示,并将待比对蛋白质序列的特征表示拆分为指定数量的子特征表示,针对每个子特征表示,确定该子特征表示和预先确定的各聚类中心特征表示中与该子特征表示相对应的每个各聚类中心特征表示之间的相似度,并根据相似度确定每个子特征表示对应的目标聚类中心,从各基础蛋白质序列中确定出与目标聚类中心相匹配的各基础蛋白质序列,作为各候选蛋白质序列,将待比对蛋白质序列与每个候选蛋白质序列进行比对,得到与待比对蛋白质相匹配的目标蛋白质序列,并根据待比对蛋白质和目标蛋白质序列进行任务执行。
-
公开(公告)号:CN116153389B
公开(公告)日:2023-07-18
申请号:CN202310431440.1
申请日:2023-04-21
Applicant: 之江实验室
Abstract: 本申请涉及人工智能领域,特别是涉及一种蛋白质语言模型的量化方法、装置、设备和存储介质,所述方法包括:采用均匀对称量化方法对蛋白质语言模型的权重值进行量化;通过校准数据集确定所述蛋白质语言模型的激活值的第一截断范围,并将所述第一截断范围划分为多个量化区间;通过分段线性量化方法分别对所述多个量化区间的激活值进行量化;基于量化后的权重值以及量化后的激活值,配置得到量化后的蛋白质语言模型。本发明提出的量化方法降低了模型量化的精度损失,在保证量化后模型预测精度的同时,减少模型的内存占用,提升模型推理速度。
-
公开(公告)号:CN117037913B
公开(公告)日:2024-01-26
申请号:CN202311285979.7
申请日:2023-10-07
Applicant: 之江实验室
Abstract: 本说明书公开了一种蛋白质多序列比对方法、装置、存储介质及电子设备。所述蛋白质多序列比对方法包括:获取待比对蛋白质序列的特征表示,并将待比对蛋白质序列的特征表示拆分为指定数量的子特征表示,针对每个子特征表示,确定该子特征表示和预先确定的各聚类中心特征表示中与该子特征表示相对应的每个各聚类中心特征表示之间的相似度,并根据相似度确定每个子特征表示对应的目标聚类中心,从各基础蛋白质序列中确定出与目标聚类中心相匹配的各基础蛋白质序列,作为各候选蛋白质序列,将待比对蛋白质序列与每个候选蛋白质序列进行比对,得到与待比对蛋白质相匹配的目标蛋白质序列,并根据待比对蛋白质和目标蛋白质序列进行任务执行。
-
公开(公告)号:CN117112145A
公开(公告)日:2023-11-24
申请号:CN202311336127.6
申请日:2023-10-16
Applicant: 之江实验室
IPC: G06F9/455 , G06F18/214 , G06N3/0464 , G06N3/08
Abstract: 本申请涉及一种训练模型分配方法、装置、计算机设备和存储介质。所述方法包括:获取待训练模型的模型信息和训练数据集;将训练模型根据层级信息划分为至少两个子模型,并将各子模型分配至训练集群中各机器节点;将各子模型根据计算参数信息划分为至少两个子模型切片,并将各子模型切片分配至训练集群中各机器节点的各计算处理器;将训练数据集根据计算参数信息划分为至少两个训练子数据集,并将各训练子数据集分配至训练集群中各计算处理器;根据训练集群中所有计算处理器,以及所有计算处理器对应的子模型切片和训练数据子集,对待训练模型进行训练。采用本申请的方法能够提高模型训练效率。
-
公开(公告)号:CN116153389A
公开(公告)日:2023-05-23
申请号:CN202310431440.1
申请日:2023-04-21
Applicant: 之江实验室
Abstract: 本申请涉及人工智能领域,特别是涉及一种蛋白质语言模型的量化方法、装置、设备和存储介质,所述方法包括:采用均匀对称量化方法对蛋白质语言模型的权重值进行量化;通过校准数据集确定所述蛋白质语言模型的激活值的第一截断范围,并将所述第一截断范围划分为多个量化区间;通过分段线性量化方法分别对所述多个量化区间的激活值进行量化;基于量化后的权重值以及量化后的激活值,配置得到量化后的蛋白质语言模型。本发明提出的量化方法降低了模型量化的精度损失,在保证量化后模型预测精度的同时,减少模型的内存占用,提升模型推理速度。
-
公开(公告)号:CN117112145B
公开(公告)日:2024-02-13
申请号:CN202311336127.6
申请日:2023-10-16
Applicant: 之江实验室
IPC: G06F9/455 , G06F18/214 , G06N3/0464 , G06N3/08
Abstract: 本申请涉及一种训练模型分配方法、装置、计算机设备和存储介质。所述方法包括:获取待训练模型的模型信息和训练数据集;将训练模型根据层级信息划分为至少两个子模型,并将各子模型分配至训练集群中各机器节点;将各子模型根据计算参数信息划分为至少两个子模型切片,并将各子模型切片分配至训练集群中各机器节点的各计算处理器;将训练数据集根据计算参数信息划分为至少两个训练子数据集,并将各训练子数据集分配至训练集群中各计算处理器;根据训练集群中所有计算处理器,以及所有计算处理器对应的子模型切片和训练数据子集,对待训练模型进行训练。采用本申请的方法能够提高模型训练效率。
-
-
-
-
-