-
公开(公告)号:CN116595407A
公开(公告)日:2023-08-15
申请号:CN202310388963.2
申请日:2023-04-12
Applicant: 中国科学院计算技术研究所
IPC: G06F18/24 , G06F18/214 , G06F18/25 , G06F40/289 , G06N3/0455 , G06N3/08
Abstract: 本发明提出一种基于标签序列一致性建模的事件论元检测方法及系统。主要包括词序列语义编码、词标签序列标注、易错标签序列生成、对比学习正则化。词序列语义编码对预处理后的词采用BERT与训练语言模型进行语义表示学习,并将事件类型信息融入表示向量中;词标签序列标注使用全连接网络来对每个词对应的标签概率分布做出预估;易错标签序列生成则是根据一定策略按照词标签序列概率分布生成易错标签序列;对比学习正则化则是基于易错标签序列和正确标签序列的对比学习构建正则化损失,提高词序列标签的一致性。
-
公开(公告)号:CN115687638A
公开(公告)日:2023-02-03
申请号:CN202211199819.6
申请日:2022-09-29
Applicant: 中国科学院计算技术研究所
IPC: G06F16/36 , G06F40/211 , G06F40/289 , G06N3/0455 , G06N3/044 , G06N3/048 , G06N3/047 , G06N3/08
Abstract: 本发明提出一种基于三元组森林的实体关系联合抽取方法和系统,包括:获取待实体关系抽取的语料,得到句子及其对应的词序列;将词序列输入BERT模型,BERT模型对词序列进行分词,得到子词序列,使用BERT模型对子词序列进行编码,得到句子的分布式表示;将分布式表示输入CRF模型,标注句子中实体,得到实体的向量表示;将实体向量输入,通过TransformerDecoder模块中多头注意力机制获得实体向量中包含的实体间交互信息、实体和输入句子间交互信息的隐层向量;将隐层向量作为Tree‑RNN的初始状态和初始隐层单元,输入实体表示至Tree‑RNN,从Tree‑RNN的根节点的头实体生成其所参与的关系,根据头实体及其对应的关系,选择其尾实体,从而生成重叠的三元组树,再进一步解码得到实体关系三元组。
-
公开(公告)号:CN111966826B
公开(公告)日:2023-01-24
申请号:CN202010709070.X
申请日:2020-07-22
Applicant: 中国科学院计算技术研究所
IPC: G06F16/35 , G06F40/289 , G06F40/30 , G06F40/216 , G06F18/2415
Abstract: 本发明实施例提供了种构建文本分类系统的方法、系统、介质及电子设备,该文本分类系统包括分句模块、句子级特征提取模块、篇章级特征提取模块和分类模块,该方法包括:A1、获取包括多个文本的训练集,所述训练集中的文本带有标记的所属类别,且其中至少部分文本是超长文本;A2、用分句模块根据预定义的分句规则对训练集中的每个文本进行分句以得到多个句子;A3、用所述训练集对文本分类系统的句子级特征提取模块、篇章级特征提取模块和分类模块进行多轮训练至收敛,得到文本分类系统;本发明减少了提取特征时丢失语义信息和结构信息的可能,最后根据文本的篇章特征用于后续的分类预测,提高了文本分类的准确率,尤其适用于对超长文本的准确分类。
-
公开(公告)号:CN114185885A
公开(公告)日:2022-03-15
申请号:CN202111307991.4
申请日:2021-11-05
Applicant: 中国科学院计算技术研究所
IPC: G06F16/22 , G06F16/2453 , G06F16/2455 , G06F16/2458 , G06F16/901 , G06F16/31 , G06F16/33 , G06F16/51 , G06F16/53
Abstract: 本发明提出一种基于列存数据的流式数据处理方法和系统,包括:获取待处理的列存流式数据及其对应的处理任务,基于时间维度将该流式数据切分为批式数据块,根据预设窗口模式为该批式数据块中每条数据分配窗口序号;将该批式数据块切分为多个中间数据块,每个中间数据块仅包含窗口序号相同的数据,对每个中间数据块的数据进行预聚合计算,产生预聚合中间状态;根据预设的流式数据时间处理模式,从内部存储提取窗口对应窗口序号的预聚合中间状态并执行与其对应的处理任务,输出任务执行结果,作为流式数据处理结果。本发明通过使用列存存储及计算引擎,结合预聚合技术,在保持较低延迟的前提下,提升数据分析场景的吞吐量。
-
公开(公告)号:CN110533162B
公开(公告)日:2022-01-07
申请号:CN201910677639.6
申请日:2019-07-25
Applicant: 中国科学院计算技术研究所
Abstract: 本发明提出一种自动生成深度学习框架间操作映射的方法及系统,包括:根据原深度学习框架和目标深度学习框架间的操作转换规则,抽取框架间操作转换的基本共性,根据基本共性构建转换关系,将转换关系作为基类存储于操作转换的初始描述文件中;获得原深度学习框架下支持的操作集合,遍历操作集合,为每个操作构建继承基类的子类,判断操作集合中操作除了基类中的基本转换规则外是否具有特殊属性,若是则补充特殊属性至子类,构成完备描述文件,否则直接保存子类,构成完备描述文件;将完备描述文件输入至编译器,得到操作转换规则,根据操作转换规则将原深度学习框架下待转换的操作转换为目标深度学习框架下的操作。
-
公开(公告)号:CN110321346B
公开(公告)日:2021-09-21
申请号:CN201910450998.8
申请日:2019-05-28
Applicant: 中国科学院计算技术研究所
IPC: G06F16/22
Abstract: 本发明涉及一种字符串散列表实现方法,包括:根据字符串长度,将该字符串分发至对应的散列表;其中,该散列表包括数组散列表、数值型散列表和字符型双散列表。本发明使用多种异构散列表存储字符串,针对不同字符串的长度选择合适的散列表;同时针对短字符串,将短字符串划分为固定的几个长度区间,提高内存空间利用率,利用字符串变长的特性,为每种区间的散列槽预留末尾的1字节空间原地存储元数据信息;而针对长字符串,使用二级散列表结构,一级散列表通过仅使用部分前缀值计算字符串散列,减少了散列值的计算量;而二级散列表作为一级散列表的冲突链存储表,解决了一级散列表精简散列计算导致的冲突增大的问题。
-
公开(公告)号:CN110135457B
公开(公告)日:2021-04-06
申请号:CN201910288771.8
申请日:2019-04-11
Applicant: 中国科学院计算技术研究所
Abstract: 本发明涉及一种基于自编码器融合文档信息的事件触发词抽取方法,包括:以未标注自由文本语料生成训练集,训练GRU模型以构建该自编码器;对训练语料进行预处理和标签标注,提取待识别词;以该自编码器获取该待识别词在其所在文档内的文档向量,作为该待识别词的全局特征;以该待识别词的词向量和实体类型分布式表达,作为该待识别词的局部特征;将该全局特征和该局部特征进行向量拼接,获得该待识别词的上下文特征;将该上下文特征输入Bi‑GRU模型进行多分类,以识别该待识别词是否为事件触发词及该待识别词的对应事件类型。
-
公开(公告)号:CN111967258A
公开(公告)日:2020-11-20
申请号:CN202010667443.1
申请日:2020-07-13
Applicant: 中国科学院计算技术研究所
IPC: G06F40/289 , G06F40/216
Abstract: 本发明实施例提供了一种构建共指消解模型的方法、共指消解的方法和介质,所述方法包括A1、构建初始共指消解模型,所述初始共指消解模型包括预训练模块、文段向量模块、指称词判断模块和共指判断模块,其中,所述预训练模块采用预训练的XLNet模型,所述指称词判断模块包括第一前馈网络,所述共指判断模块包括第二前馈网络;A2、获取包括多个句子的训练数据集,所述训练数据集带有人工标注的共指关系;A3、用所述训练数据集对初始共指消解模型进行多轮训练至其收敛获得共指消解模型。本发明实施例的技术方案可以提升共指消解过程对于长距离依赖的共指关系的判断性能。
-
公开(公告)号:CN110532291A
公开(公告)日:2019-12-03
申请号:CN201910676904.9
申请日:2019-07-25
Applicant: 中国科学院计算技术研究所
IPC: G06F16/2455 , G06N20/00
Abstract: 本发明提出一种基于最小执行代价的深度学习框架间模型转换方法及系统,包括:在原有技术的基础上,添加操作转换代价值,同时考虑多个独立操作可以融合的情况,补充融合映射;模型的具体实现体现在构成模型的操作转换上,本阶段依据模型转换映射表,通过动态规划算法得到执行代价最低的转换后模型结构。本发明通过操作融合可以减少多个操作间中间结果的读写过程,从而优化计算性能和存储空间,进而降低转换后模型的执行代价。同时,在有多种融合可选时通过动态规划的算法得到执行代价最小的模型转换方法。
-
公开(公告)号:CN110321346A
公开(公告)日:2019-10-11
申请号:CN201910450998.8
申请日:2019-05-28
Applicant: 中国科学院计算技术研究所
IPC: G06F16/22
Abstract: 本发明涉及一种字符串散列表实现方法,包括:根据字符串长度,将该字符串分发至对应的散列表;其中,该散列表包括数组散列表、数值型散列表和字符型双散列表。本发明使用多种异构散列表存储字符串,针对不同字符串的长度选择合适的散列表;同时针对短字符串,将短字符串划分为固定的几个长度区间,提高内存空间利用率,利用字符串变长的特性,为每种区间的散列槽预留末尾的1字节空间原地存储元数据信息;而针对长字符串,使用二级散列表结构,一级散列表通过仅使用部分前缀值计算字符串散列,减少了散列值的计算量;而二级散列表作为一级散列表的冲突链存储表,解决了一级散列表精简散列计算导致的冲突增大的问题。
-
-
-
-
-
-
-
-
-