-
公开(公告)号:CN108960335A
公开(公告)日:2018-12-07
申请号:CN201810767101.X
申请日:2018-07-13
Applicant: 大连理工大学
IPC: G06K9/62
CPC classification number: G06K9/6218
Abstract: 本发明公开了一种基于大规模网络进行高效聚类方法,采取一系列网络切割方法对大规模网络进行预处理,并根据谱聚类的核心思想,首次使用三角图元作为网络聚类的最小单元对大规模网络进行并行聚类。本系统中节点簇内簇间节点连接特点定义了四个条件,对大规模网络进行切割,并利用模块度对网络划分优化,得到模块度最高的子图集。最后将三角图元作为网络最小单元进行降维并行聚类,以提高系统聚类效率。此系统在四个划分条件下进行实验,实验结果验证了本聚类系统的高效性和高精度。本发明提供了大规模网络聚类的一种新高效方法,为大规模网络数据关系挖掘提供了一种新的解决方案。
-
公开(公告)号:CN108596220A
公开(公告)日:2018-09-28
申请号:CN201810315248.5
申请日:2018-04-08
Applicant: 大连理工大学
Abstract: 本发明属于网络分析技术领域,涉及一种基于超图熵的桥节点识别方法,使用较为稳定的三角元构建超边,进而用超边表示整个网络。该算法考虑了超图熵、杰卡德相似系数等因素,前者提供了一种衡量社团划分的好坏的依据,该值考虑了社团内部和社团之间的连接关系,超图熵越小,说明社团之间联系越松散,而社团内部联系较为紧密,说明社团识别结果较为理想。在算法迭代过程中,当删除或添加“候选超边”时,会根据是否能够减小超图熵来决定是否删除或添加;后者使得我们识别出的社团相似度不会过大,当两社团相似度大于平均相似度时就会合并,使得识别社团的“准确性”大大增加。最终通过识别社团之间的交集,得出桥节点。
-
公开(公告)号:CN108510205A
公开(公告)日:2018-09-07
申请号:CN201810316651.X
申请日:2018-04-08
Applicant: 大连理工大学
Abstract: 本发明属于学者技能评估技术领域,涉及一种基于超图的学者技能评估方法,可以细粒度的评估学者在某一领域某一技能的水平,且可以体现学者技能随时间的变化规律。该方法考虑了论文数目及论文质量、不同领域的差异性、时间变化等因素。超图概念的使用使本方法可以融合学者、领域和技能,从而使本方法提供了一种细粒度的评估方案。在计算学者、领域和技能的距离时,以论文引用量、H-index等传统评估参数为基础进行拓展,保证了可靠性,同时归一化的使用提高了运算效率,降低了误差。最后加入时间因素使本方法可以分析学者领域,技能随时间的变化,为研究提供了更多的“原材料”。
-
公开(公告)号:CN114692867B
公开(公告)日:2025-01-07
申请号:CN202210293116.3
申请日:2022-03-24
Applicant: 大连理工大学
IPC: G06F18/2415 , G06F18/22 , G06N3/042 , G06N3/045 , G06N3/0464 , G06N3/08 , G06Q50/00
Abstract: 本发明属于网络表示学习领域,公开了一种结合高阶结构和注意力机制的网络表示的节点分类方法,考虑到网络中的不同的高阶结构对于网络的适用性,可以自适应学习不同类型的网络数据,缓解了网络表示学习中没有考虑到高阶结构的适用性造成的性能次优问题。首先进行数据准备和数据预处理;其次,利用图卷积网络层分别提取数据的属性特征和结构特征;接着利用注意力机制学习属性特征和结构特征的相似性,并根据相似性聚合网络中每个节点邻域的表示;然后,利用图卷积操作转换为下游任务的表示;最后,利用损失函数持续更新算法模型的参数,直到得到最优的算法模型,获得高效的网络表示,可以应用于垃圾邮件识别,假新闻检测和疾病预测。
-
公开(公告)号:CN114743137B
公开(公告)日:2024-11-05
申请号:CN202210328207.6
申请日:2022-03-31
Applicant: 大连理工大学
IPC: G06V20/40 , G06T7/73 , G06V10/764 , G06V10/82 , G06N3/0464 , G06N3/0455 , G06N3/08
Abstract: 本发明公开了一种基于多实例学习的在线考试作弊识别方法,涉及考试作弊识别技术领域,本发明包括如下步骤:获取视频信息,并提取视频特征;对提取的所述视频特征进行连续采样,确定视频特征中的异常视频;对所述异常视频利用多实例生成器为每个异常视频生成片段标签;本发明通过作弊识别方法的实施,能够准确容易发现作弊行为,并且检测效率较高,存在具体的判断标准,准确性较高,并且能够对很少作弊检测的数据进行准确定位,解决了难以收集的问题,能够快速找出空间中的可疑位置,还能够解决弱监督方式下存在的检测问题,减轻了人员的负担,提高了作弊检测识别的效率和精准度,方便人员使用。
-
公开(公告)号:CN114742564B
公开(公告)日:2024-09-17
申请号:CN202210449853.8
申请日:2022-04-27
Applicant: 大连理工大学
IPC: G06Q30/018 , G06F18/22 , G06F18/23213
Abstract: 本发明属于人工智能领域,提出一种融合复杂关系的虚假评论者群体检测方法,用于在线交易平台上的虚假评论群体检测。本方法包括节点表征更新、模型训练和虚假评论群体检测三个阶段。本方法将训练好的模型应用在真实数据集下,既能识别出虚假评论者,也可以很好地将虚假评论者群体与正常评论者区分。本方法基于节点的复杂关系特征,充分利用评论者间有价值的关系信息,将嵌入过程与聚类检测过程整合,获得一种以目标为导向的虚假评论者群体检测模型,同时可以克服现有群体检测方法存在的普适性差、检测效果低下等问题。
-
公开(公告)号:CN117610607A
公开(公告)日:2024-02-27
申请号:CN202311554290.X
申请日:2023-11-21
Applicant: 大连理工大学
IPC: G06N3/006 , G06N3/0499 , G06N3/0442 , G06F17/16
Abstract: 本发明属于强化学习技术领域,公开了一种知识驱动的生物智能群体协同决策方法。为了克服现有多智能体强化学习方法无法利用高阶逻辑关系、忽略不同智能体的重要程度以及无法捕捉多智能体系统的时间依赖性和动态图结构等问题,本发明提出了一种知识驱动的生物智能群体协同决策方法,结合高阶模体表示、注意力机制、长短期记忆网络等技术,最终实现对多智能体动态系统的充分学习和表示,并用于后续的强化学习流程中。
-
公开(公告)号:CN116704537A
公开(公告)日:2023-09-05
申请号:CN202211539551.6
申请日:2022-12-02
Applicant: 大连理工大学
Abstract: 本发明属于视觉文档理解技术领域,公开了一种轻量的药典图片文字提取方法,包含两个关键步骤。1)构建药典特征轻量聚焦模块:首先利用全秩网络特征主成分构建低秩神经网络层,然后设计聚焦策略从输入特征中提取关键信息,2)构建药典文档信息识别提取网络:串联8个药典特征轻量聚焦模块为网络骨架,构建多阶段编码器提取药典数据特征嵌入;然后串联8个药典特征轻量聚焦模块为网络骨架,构建多阶段解码器转换药典数据信息为特定文本,实现药典电子化;最后利用交叉熵损失衡量解码器提取的药典数据文本与原始药典数据文本的差距,通过最小化交叉熵损失最优化网络参数。
-
公开(公告)号:CN115730657A
公开(公告)日:2023-03-03
申请号:CN202211452851.0
申请日:2022-11-21
Applicant: 大连理工大学
IPC: G06N3/0985 , G06N3/048 , G06N3/0475 , G06F17/16 , G06N5/04 , G06V10/82 , G06V10/764
Abstract: 本发明属于图神经网络的可解释性领域,公开了一种基于网络模体的图神经网络可解释方法,可以识别出图神经网络中高频出现的低阶结构模体,通过反事实推论证明该模体对实际预测结果有十分重要的影响,从而对图神经网络的可解释性起到关键的作用,并且可以提供更好的解释服务。本发明讨论了模型超参数和解释大小对模型性能的影响,在合成和真实数据集上均展示优于其他基线的性能。本发明创建的方法是模型不可知的,因此在理论上适用于所有的图神经网络。
-
公开(公告)号:CN115131605A
公开(公告)日:2022-09-30
申请号:CN202210665049.3
申请日:2022-06-14
Applicant: 大连理工大学
IPC: G06V10/764 , G06V10/774 , G06V10/82 , G06N3/08
Abstract: 本发明属于图表示学习领域,提出了一种基于自适应子图的结构感知图对比学习方法,用于图表示学习。该方法包括基于Motif的子图生成算法、图增强算法、基于Motif的子图嵌入算法、基于GNN的图嵌入算法以及子图对比学习框架。本发明可以在无监督场景下,帮助模型更好地捕捉局部语义信息,从而学习到高质量节点嵌入,用于下游图学习任务,如节点分类、链路预测、推荐系统等。本发明基于原始图中的motif信息,构建编码子图,可以有效减轻图增强对原始图语义信息的破坏;提出的基于motif的子图生成与编码策略和传统子图生成方法相比,可以捕捉更丰富的语义信息。
-
-
-
-
-
-
-
-
-