-
公开(公告)号:CN110767266B
公开(公告)日:2023-04-18
申请号:CN201911064826.3
申请日:2019-11-04
Applicant: 山东省计算中心(国家超级计算济南中心) , 青岛海洋科学与技术国家实验室发展中心
Abstract: 本发明的基于图卷积的面向ErbB靶向蛋白家族的打分函数构建方法,包括:a).构建ErbB靶向蛋白数据,对于ErbB包含的4个受体酪氨酸激酶ErbB‑1、ErbB‑2、ErbB‑3和ErbB‑4均构建靶向蛋白数据集;b).扩大数据集规模,采用原始构象、旋转构象、优化构象的方法扩大数据集规模;c).构建ErbB靶向蛋白家族机器学习打分函数模型;d).模型的训练和评估。本发明的打分函数构建方法,建了一个ErbB蛋白家族机器学习分子亲和力评估数据集,为ErbB蛋白家族的机器学习任务奠定了数据基础;通过GCN技术突破了经典打分函数的瓶颈,提高了打分函数的性能,解决了机器学习打分函数通用模型准确率低的问题。
-
公开(公告)号:CN110767266A
公开(公告)日:2020-02-07
申请号:CN201911064826.3
申请日:2019-11-04
Applicant: 山东省计算中心(国家超级计算济南中心) , 青岛海洋科学与技术国家实验室发展中心
Abstract: 本发明的基于图卷积的面向ErbB靶向蛋白家族的打分函数构建方法,包括:a).构建ErbB靶向蛋白数据,对于ErbB包含的4个受体酪氨酸激酶ErbB-1、ErbB-2、ErbB-3和ErbB-4均构建靶向蛋白数据集;b).扩大数据集规模,采用原始构象、旋转构象、优化构象的方法扩大数据集规模;c).构建ErbB靶向蛋白家族机器学习打分函数模型;d).模型的训练和评估。本发明的打分函数构建方法,建了一个ErbB蛋白家族机器学习分子亲和力评估数据集,为ErbB蛋白家族的机器学习任务奠定了数据基础;通过GCN技术突破了经典打分函数的瓶颈,提高了打分函数的性能,解决了机器学习打分函数通用模型准确率低的问题。
-
公开(公告)号:CN114360637B
公开(公告)日:2024-10-29
申请号:CN202210022369.7
申请日:2022-01-10
Applicant: 山东省计算中心(国家超级计算济南中心) , 中国海洋大学
IPC: G16B15/00 , G16B25/00 , G06N3/042 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种基于图注意力网络的蛋白质‑配体亲和力评价方法。为了解决数据集规模小的问题,本发明模拟半柔性对接过程,设计了基于分子柔性的数据增强方法(Data Enhancement Method based on molecular flexibility),扩大数据规模、提高模型质量、保证了方法的科学性与合理性。本发明设计基于图注意力机制的分子特征提取方法,提取分子有效特征,提高打分函数的精度和性能。
-
公开(公告)号:CN114360637A
公开(公告)日:2022-04-15
申请号:CN202210022369.7
申请日:2022-01-10
Applicant: 山东省计算中心(国家超级计算济南中心) , 中国海洋大学
Abstract: 本发明公开了一种基于图注意力网络的蛋白质‑配体亲和力评价方法。为了解决数据集规模小的问题,本发明模拟半柔性对接过程,设计了基于分子柔性的数据增强方法(Data Enhancement Method based on molecular flexibility),扩大数据规模、提高模型质量、保证了方法的科学性与合理性。本发明设计基于图注意力机制的分子特征提取方法,提取分子有效特征,提高打分函数的精度和性能。
-
公开(公告)号:CN112417166A
公开(公告)日:2021-02-26
申请号:CN202011309998.5
申请日:2020-11-20
Applicant: 山东省计算中心(国家超级计算济南中心)
Abstract: 本发明的知识图谱三元组置信度评价方法,包括评估阶段、融合阶段和校验阶段,a).实体层面评估;a‑1).数据源角度;a‑2).文献共现角度;a‑3).外链规模角度;a‑4).文本描述角度;a‑5).实体重要性角度;a‑6).实体的度的角度;b).关系层面评估;b‑1).数据源角度;b‑2).文献共现角度;b‑3).对实体间已知关系层面的评价;b‑4).对实体间未知关系层面的评价;c).知识图谱全局层面评估。本发明的知识图谱三元组置信度评价方法,可高效、快速、大规模的发掘知识图谱数据中的错误,进而提升整个知识图谱系统的数据质量;可以对链接预测、关系推理等机器学习任务的结果进行数据可靠性校验。
-
公开(公告)号:CN112380345A
公开(公告)日:2021-02-19
申请号:CN202011313700.8
申请日:2020-11-20
Applicant: 山东省计算中心(国家超级计算济南中心)
IPC: G06F16/35 , G06F16/36 , G06F40/232 , G06F40/258 , G06F40/284 , G06F40/289
Abstract: 本发明的基于GNN的COVID‑19科学文献细粒度分类方法,包括:a).COVID‑19科学文献知识图谱的构建;a‑1).知识类别的划分;a‑2).科学文献中实体设计;a‑3).科学文献中关系设计;a‑4).构建COVID‑19科学文献知识图谱;b).西药治疗知识图谱构建;c).中药治疗知识图谱构建;d).构建图神经网络模型;e).文本分类。本发明的基于GNN的COVID‑19科学文献细粒度分类方法,为医学工作者在海量的(通常大于1万篇)有关COVID‑19科学文献中快速查找到自己所需的知识类别文献,提供了一种行之有效的筛选和分类方法,有益效果显著,适于应用推广。
-
公开(公告)号:CN112380345B
公开(公告)日:2022-03-29
申请号:CN202011313700.8
申请日:2020-11-20
Applicant: 山东省计算中心(国家超级计算济南中心)
IPC: G06F16/35 , G06F16/36 , G06F40/232 , G06F40/258 , G06F40/284 , G06F40/289
Abstract: 本发明的基于GNN的COVID‑19科学文献细粒度分类方法,包括:a).COVID‑19科学文献知识图谱的构建;a‑1).知识类别的划分;a‑2).科学文献中实体设计;a‑3).科学文献中关系设计;a‑4).构建COVID‑19科学文献知识图谱;b).西药治疗知识图谱构建;c).中药治疗知识图谱构建;d).构建图神经网络模型;e).文本分类。本发明的基于GNN的COVID‑19科学文献细粒度分类方法,为医学工作者在海量的(通常大于1万篇)有关COVID‑19科学文献中快速查找到自己所需的知识类别文献,提供了一种行之有效的筛选和分类方法,有益效果显著,适于应用推广。
-
公开(公告)号:CN112417166B
公开(公告)日:2022-08-26
申请号:CN202011309998.5
申请日:2020-11-20
Applicant: 山东省计算中心(国家超级计算济南中心)
Abstract: 本发明的知识图谱三元组置信度评价方法,包括评估阶段、融合阶段和校验阶段,a).实体层面评估;a‑1).数据源角度;a‑2).文献共现角度;a‑3).外链规模角度;a‑4).文本描述角度;a‑5).实体重要性角度;a‑6).实体的度的角度;b).关系层面评估;b‑1).数据源角度;b‑2).文献共现角度;b‑3).对实体间已知关系层面的评价;b‑4).对实体间未知关系层面的评价;c).知识图谱全局层面评估。本发明的知识图谱三元组置信度评价方法,可高效、快速、大规模的发掘知识图谱数据中的错误,进而提升整个知识图谱系统的数据质量;可以对链接预测、关系推理等机器学习任务的结果进行数据可靠性校验。
-
公开(公告)号:CN111435608B
公开(公告)日:2024-02-06
申请号:CN201910839108.2
申请日:2019-09-05
Applicant: 中国海洋大学 , 青岛海洋科学与技术国家实验室发展中心
IPC: G16B20/30
Abstract: 本发明提出了一种基于深度学习的蛋白质药物结合位点预测方法,包括如下步骤:步骤1、选取蛋白数据库中的若干蛋白质形成训练集,若干蛋白质形成验证集,若干蛋白质形成测试集,其中训练集用于训练模型的训练;步骤2、训练后的训练模型对蛋白质数据库进行特征提取和标签提取,获取数据,完成神经网络的训练,得到预测模型;步骤3、将新的蛋白质输入预测模型中,进行结合位点位置的定位和预测,借此,本发明具有综合考虑结合位点形成因素,基于深度学习进行结合位点的定位和预测的优点。
-
公开(公告)号:CN112560033B
公开(公告)日:2023-06-16
申请号:CN202011455979.3
申请日:2020-12-10
Applicant: 青岛海洋科学与技术国家实验室发展中心
IPC: G06F21/56
Abstract: 本申请公开了一种基于用户上下文的基线扫描方法及装置。所述基于用户上下文的基线扫描方法包括:生成不同的用户上下文;为各个所述用户上下文进行分类,使用选定的分类后的用户上下文进行基线扫描。本申请的基于用户上下文的基线扫描方法通过对系统的用户的访问控制列表、访问令牌、特权转储和比较,将用户上下文进行划分并作为基线检查的上下文,细化了基线检查的环境。
-
-
-
-
-
-
-
-
-