-
公开(公告)号:CN116935117A
公开(公告)日:2023-10-24
申请号:CN202310887423.9
申请日:2023-07-19
Applicant: 国家计算机网络与信息安全管理中心
IPC: G06V10/764 , G06V10/56
Abstract: 本发明涉及标志物检测系统领域,尤其为一种复杂场景下特定标志物检测系统,包括:收集模块:用于通过网络爬虫技术对特定标志物图片进行收集,获得特定标志物图片;处理模块:用于对收集模块收集的特定标志物图片进行图片预处理,获得预处理数据;分类器训练模块:用于根据处理模块处理得到的预处理数据进行模型训练,得到自动分类模型;分类模块:用于连接自动分类模型,对特定标志物图片进行分类。本发明通过颜色和形状的标志物检测算法,从色彩增强、颜色分割和形状分类三个方面提高特定标志物检测系统算法的鲁棒性,通过比较RGB和HSV颜色分割效果,选取效果更好的HSV颜色分割,在形状分类中不仅仅使用简单的SVM模型训练而且同时使用Contourlet变化提高算法的鲁棒性使的算法预测效果更好,保证出现差错在系统允许的范围内。
-
公开(公告)号:CN118658456B
公开(公告)日:2024-11-22
申请号:CN202411146603.2
申请日:2024-08-21
Applicant: 烟台中科网络技术研究所 , 国家计算机网络与信息安全管理中心
Abstract: 本发明提供一种用于音频特定信息识别方法及系统,属于信息识别领域;解决了不良行为或不良语言的识别问题;具体如下:步骤S1:获取图像信息和语音信息;步骤S2:分别对图像信息和语音信息进行增强处理,得到待分析图像和待分析语音;步骤S3:构建行为识别模型和语音识别模型,并分析待分析图像和待分析语音,判断公共数据中是否存在恶意行为;若存在,则保存出现显性恶意行为或隐性恶意行为的公共数据;若不存在,则继续监测;本发明通过对目标地区的公共数据进行获取、分析和处理,识别公共数据中的不良行为或不良语言,降低了公共地区的管理难度。
-
公开(公告)号:CN115858798B
公开(公告)日:2024-11-19
申请号:CN202210651618.9
申请日:2022-06-09
Applicant: 国家计算机网络与信息安全管理中心 , 中国科学院信息工程研究所
IPC: G06F16/36 , G06F40/295 , G06F40/30
Abstract: 本发明涉及一种面向维基百科文本数据的事理图谱构建方法和系统,属于文本数据挖掘领域。该方法包括以下步骤:获取维基百科的数据并将其解析为纯文本的形式;使用语义角色标注技术抽取维基百科数据中的事件简介;使用命名实体识别技术对维基百科数据的事件中的人物、地点、机构进行抽取;使用正则表达式匹配技术对维基百科数据的事件中的时间进行抽取;将抽取的事件简介、人物、地点、机构和时间构造为事理图谱。本发明实现了从数据获取、事件抽取、事件论元抽取到图谱构建的相关技术流程,能够帮助研究和分析事件的基本信息和演化过程。
-
公开(公告)号:CN118821782A
公开(公告)日:2024-10-22
申请号:CN202410768553.5
申请日:2024-06-14
Applicant: 国家计算机网络与信息安全管理中心
Abstract: 本发明公开了一种多粒度相似性增强的篇章级事件论元抽取方法及系统,属于文本信息抽取领域。本发明首先将文档输入预训练语言模型编码,得到高维度嵌入表示;然后构建包含句子和段落节点的异构图,通过图神经网络融合全局语义信息;最后,通过对比学习和排序损失增强段落和句子粒度的相似性。本发明解决了远距离事件论元抽取的难题,并有效缓解了噪音实体对抽取结果的干扰,提高了抽取的准确性和鲁棒性。
-
公开(公告)号:CN115269833B
公开(公告)日:2024-08-16
申请号:CN202210760202.0
申请日:2022-06-29
Applicant: 国家计算机网络与信息安全管理中心 , 中国科学院信息工程研究所
IPC: G06F16/35 , G06F40/194 , G06F18/23213 , G06F18/24 , G06F18/25
Abstract: 本发明公开一种基于深度语义和多任务学习的事件信息抽取方法及系统,属于文本信息抽取领域。为克服现有事件信息抽取技术准确率、召回率低等不足,本发明主要利用预训练语言模型通过对文章在篇章级、语段级、语句级、词语级等粒度上分别进行向量表示,通过依次进行事件分类、事件论元抽取、关键词抽取获得事件的主要信息。本发明在事件分类、事件论元抽取、关键词抽取三方面达到了非常高的准确率。
-
公开(公告)号:CN117234572A
公开(公告)日:2023-12-15
申请号:CN202310892421.9
申请日:2023-07-20
Applicant: 国家计算机网络与信息安全管理中心
IPC: G06F8/70 , G06F8/71 , G06F8/74 , G06N3/0464 , G06N3/08
Abstract: 本发明涉及多模态数据提取技术领域,尤其为一种基于游戏引擎的多模态数据提取方法,包括如下步骤包括如下步骤:S1:通过对游戏文件逆向,获得游戏的资源文件;S2:通过对资源文件引擎特征提取,获得游戏资源文件中的游戏引擎;S3:通过对游戏资源文件中的游戏引擎进行特征融合获得融合特征进行多模态数据提取。本发明通过逆向手段分析游戏引擎,从游戏引擎对资源文件打包开始,深入研究打包流程和打包过程中使用的技术,无需运行游戏,直接从游戏安装路径下对资源文件提取,减少了资源浪费问题。
-
公开(公告)号:CN117149949B
公开(公告)日:2024-12-17
申请号:CN202311059658.5
申请日:2023-08-22
Applicant: 国家计算机网络与信息安全管理中心
IPC: G06F16/33 , G06F16/335 , G06F16/35 , G06F18/23
Abstract: 本发明公开了一种融合多源信息的人名消歧方法及装置,所述方法包括:将所有文本划分为若干个类;基于同名作者对应的机构名称、文本共同作者和文本主题内容,分别对每一类文本进行聚类,以得到该类文本的机构名第一聚类结果、共同作者第一聚类结果和主题内容第一聚类结果;基于簇内机构信息及文本的共现信息,对机构名第一聚类结果、共同作者第一聚类结果和主题内容第一聚类结果进行融合,得到该类文本的初步聚类结果;提取初步聚类结果中的单簇文本,并基于所述单簇文本与该类文本中其他文本的相似度进行单簇文本的融合后,得到人名消歧结果。本发明可以实现了更好的消歧准确率。
-
公开(公告)号:CN117633092A
公开(公告)日:2024-03-01
申请号:CN202311358101.1
申请日:2023-10-19
Applicant: 国家计算机网络与信息安全管理中心
IPC: G06F16/26 , G06F16/2455
Abstract: 一种改进apriori的频繁有序项集挖掘方法,包括:采取项为首、特征为尾拼接的方式生成新项集,以发现数据中频繁出现的连续有序项集,而不是无序的关联规则;在候选项筛选中,加入项预判断,减少对事务集的扫描次数;另外,还采用记录项事务集的方式避免了对全部数据集的频繁扫描,提高了算法的时间性能。该方法有效解决了Apriori算法无法用于发现频繁有序项集,以及候选集筛选过程中频繁扫描整个事务集带来的时间开销巨大的问题。
-
公开(公告)号:CN117371423A
公开(公告)日:2024-01-09
申请号:CN202311076561.5
申请日:2023-08-24
Applicant: 国家计算机网络与信息安全管理中心
IPC: G06F40/20 , G06N3/0442 , G06N3/09
Abstract: 本发明公开了一种不平衡条件下的文本分类器生成方法和装置,所述方法包括:获取不平衡数据,基于所述不平衡数据构建训练集;生成特征向量,将特征向量作为输入数据;将输入数据输入分类网络,分类网络包括依次相连的卷积层、池化层、LSTM层、GRU层、全连接层;输入数据经所述分类网络处理,得到中间分类结果,所述中间分类结果是未经完全训练,但是已有分类效果的结果;将中间分类结果与真实标签输入损失函数,得到中间结果对应的损失值,若损失值小于预定义的损失值,则当前的分类网络结合当前的权重作为构建完毕的分类器。本方法能在训练过程中减少分对样本的损失在总的损失中的权重,使得分类器的优化更偏向分错的样本。
-
公开(公告)号:CN117271765A
公开(公告)日:2023-12-22
申请号:CN202311059507.X
申请日:2023-08-22
Applicant: 国家计算机网络与信息安全管理中心
IPC: G06F16/35 , G06F40/30 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种基于多语义特征融合的文本分类方法及装置,所述方法包括:获取待分类的文本,将所述待分类的文本进行预处理,得到处理后的文本;将词级粒度向量输入训练完毕的词级语义特征提取模型,得到词级语义特征;将句子级粒度向量输入训练完毕的句子级语义特征提取模型,得到句子级语义特征;基于文章级向量对所述处理后的文本进行特征提取,得到文本级语义特征;将所述词级语义特征、句子级语义特征以及文本级语义特征进行特征拼接融合,得到融合后特征,使用分类器对所述融合后特征进行分类。本方法从词粒度、句子粒度和文章粒度等多个层面对文本进行精细语义建模,利用文本的多语义融合特征进行文本分类,提高了文本分类的准确率。
-
-
-
-
-
-
-
-
-