-
公开(公告)号:CN111553817A
公开(公告)日:2020-08-18
申请号:CN202010332124.5
申请日:2020-04-24
Applicant: 北京北大软件工程股份有限公司
IPC: G06Q50/18 , G06F16/35 , G06F16/383 , G06F16/335
Abstract: 本发明公开了一种投诉举报案件及处理部门的吻合度的分析方法和系统,属于投诉举报的数字技术领域,在接收到投诉举报信息后,获取投诉举报案件的全部信息,之后对案件的全部信息进行预处理得到预处理数据,将预处理数据输入到分析模型中得到分析结果,根据分析结果判断投诉举报和预处理部门是否吻合。大大方便了人们投诉举报,同时有效提高了执法人员管理投诉举报案件的效率,进而避免职权的使用不当。
-
公开(公告)号:CN111461446B
公开(公告)日:2024-05-21
申请号:CN202010273404.3
申请日:2020-04-09
Applicant: 北京北大软件工程股份有限公司
IPC: G06Q10/04 , G06Q50/18 , G06F18/2135
Abstract: 本发明涉及一种基于机器学习的投诉举报案件的预测方法及装置,包括获取案件的影响因素指标并计算影响因素指标对应权重,确定第一权重因子;其中,影响因素指标包括多个;计算每个影响因素指标下的每个分类在影响因素指标中对应的权重,确定第二权重因子;结合第一权重因子和第二权重因子获取预测模型;通过预测模型对待预测的投诉案件进行预测,得到一个评分分布,即可得到待预测投诉案件的预测结果。本发明能够从不同维度对投诉举报案件的发生情况进行合理性的预测,进而帮助执法人员更有效的处理投诉举报案件,以及帮助相关人员及时发现投诉举报案件频发的原因,提高执法人员管理投诉举报案件的工作效率。
-
公开(公告)号:CN113806548A
公开(公告)日:2021-12-17
申请号:CN202111372528.8
申请日:2021-11-19
Applicant: 北京北大软件工程股份有限公司
IPC: G06F16/35 , G06F40/205 , G06N3/04 , G06N3/08
Abstract: 本发明公开了一种基于深度学习模型的信访要素抽取方法、抽取系统、电子设备及计算机可读存储介质,包括:提取信访件的文本内容中目标文本数据;对目标文本数据进行预处理,生成针对多种深度学习模型的对应的数据;将预处理后的多种文本数据中的关于信访人的相关信息、受信人相关信息以及信访诉求的文本数据输入到要素抽取模型中进行要素抽取;将关于信访内容以及信访目的的文本数据输入到文本分类模型中进行分类,分别得到要素抽取的结果以及文本分类的结果;将得到的要素抽取的结果以及文本分类的结果推送到终端设备。该方法采用多种模型,能适应不同类型信访件,具有普遍性,并且无需人工进行繁琐要素抽取工作,提高信访人员工作效率。
-
公开(公告)号:CN109446066B
公开(公告)日:2020-11-03
申请号:CN201811101415.2
申请日:2018-09-20
Applicant: 北京大学 , 北京北大软件工程股份有限公司
IPC: G06F11/36
Abstract: 本发明实施例提供一种C/C++程序中不可达代码的静态检测方法及系统,其中,所述方法包括:构建待检测C/C++程序的控制依赖图和值依赖图;在所述值依赖图上进行常量分析,并根据常量分析的结果更新所述控制依赖图;对更新后的所述控制依赖图中所有守卫结点的约束表达式的可满足性进行求解;若存在不可满足的约束表达式,则从所述控制依赖图中获取与所述不可满足的约束表达式相对应的守卫结点的所有直接和间接后继结点所对应的程序代码。本发明可以检测千万行级的代码,检测速度可达到每小时百万行以上,并且检测精度超过利用符号执行技术的检测精度,具有较低的误报率和漏报率。
-
公开(公告)号:CN118627506A
公开(公告)日:2024-09-10
申请号:CN202411110723.7
申请日:2024-08-14
Applicant: 北京北大软件工程股份有限公司
IPC: G06F40/284 , G06F18/22 , G06N3/0499 , G06N3/0464
Abstract: 本申请公开了一种答案文段提取方法、装置、设备、介质及产品,涉及自然语言处理技术领域,该方法包括:接收用户问题和对应答案所在的文档;分别获取用户问题中词元的词向量、文档中词元的词向量和全局词元的词向量;获取文档中词元的词向量对应的所有候选答案文段的表示向量;获取用户问题中词元的词向量对应的问题表示向量和全局词元的词向量对应的全局阈值表示向量;获取各个候选答案文段的表示向量与问题表示向量之间的第一相似度,以及全局阈值表示向量与问题表示向量之间的第二相似度;获取第一相似度中大于第二相似度的目标相似度;输出目标相似度对应的目标候选答案文段。本申请可以处理文档中的答案文段是由多个文段组成的任务。
-
公开(公告)号:CN111553160B
公开(公告)日:2024-02-02
申请号:CN202010332120.7
申请日:2020-04-24
Applicant: 北京北大软件工程股份有限公司
IPC: G06F40/295 , G06F40/35 , G06F16/332 , G06F16/33 , G06F16/35 , G06Q50/18
Abstract: 本发明公开了一种获取法律领域问句答案的方法和系统,属于语义理解领域,在获取用户的自然语言问句后生成词语的实体,识别实体并将实体分为命名实体和一般实体,根据命名实体和一般实体的关系生成语法依存树,根据语法依存树生成实体间的谓词路径,在根据谓词路径生成查询语句,执行查询语句从数据库中获取用户问句的答案。通过上述方案能够理解用户的语义,帮助用户快速准确的获取问句的答案,同时获取的答案更全面。
-
公开(公告)号:CN119003791B
公开(公告)日:2025-01-21
申请号:CN202411455598.3
申请日:2024-10-18
Applicant: 北京北大软件工程股份有限公司
Abstract: 本申请公开了一种篇章级关系抽取方法、装置、设备、介质及产品,涉及自然语言处理技术领域,该方法包括:获取待抽取篇章级关系的目标篇章文档;获取目标篇章文档中的第一关系三元组;根据第一关系三元组中的关系在预设规则库中获取与关系对应的目标规则,目标规则包括:关系与新推断关系的映射关系,以及新推断关系中的实体的属性信息;根据目标篇章文档、第一关系三元组中包括的实体的属性信息和目标规则,推断第一关系三元组中包含的新推断关系三元组;输出第一关系三元组和新推断关系三元组。本申请可以提升推断出的新的关系组的准确性。
-
公开(公告)号:CN118627506B
公开(公告)日:2024-11-08
申请号:CN202411110723.7
申请日:2024-08-14
Applicant: 北京北大软件工程股份有限公司
IPC: G06F40/284 , G06F18/22 , G06N3/0499 , G06N3/0464
Abstract: 本申请公开了一种答案文段提取方法、装置、设备、介质及产品,涉及自然语言处理技术领域,该方法包括:接收用户问题和对应答案所在的文档;分别获取用户问题中词元的词向量、文档中词元的词向量和全局词元的词向量;获取文档中词元的词向量对应的所有候选答案文段的表示向量;获取用户问题中词元的词向量对应的问题表示向量和全局词元的词向量对应的全局阈值表示向量;获取各个候选答案文段的表示向量与问题表示向量之间的第一相似度,以及全局阈值表示向量与问题表示向量之间的第二相似度;获取第一相似度中大于第二相似度的目标相似度;输出目标相似度对应的目标候选答案文段。本申请可以处理文档中的答案文段是由多个文段组成的任务。
-
公开(公告)号:CN111553160A
公开(公告)日:2020-08-18
申请号:CN202010332120.7
申请日:2020-04-24
Applicant: 北京北大软件工程股份有限公司
IPC: G06F40/295 , G06F40/35 , G06F16/332 , G06F16/33 , G06F16/35 , G06Q50/18
Abstract: 本发明公开了一种获取法律领域问句答案的方法和系统,属于语义理解领域,在获取用户的自然语言问句后生成词语的实体,识别实体并将实体分为命名实体和一般实体,根据命名实体和一般实体的关系生成语法依存树,根据语法依存树生成实体间的谓词路径,在根据谓词路径生成查询语句,执行查询语句从数据库中获取用户问句的答案。通过上述方案能够理解用户的语义,帮助用户快速准确的获取问句的答案,同时获取的答案更全面。
-
公开(公告)号:CN119003791A
公开(公告)日:2024-11-22
申请号:CN202411455598.3
申请日:2024-10-18
Applicant: 北京北大软件工程股份有限公司
Abstract: 本申请公开了一种篇章级关系抽取方法、装置、设备、介质及产品,涉及自然语言处理技术领域,该方法包括:获取待抽取篇章级关系的目标篇章文档;获取目标篇章文档中的第一关系三元组;根据第一关系三元组中的关系在预设规则库中获取与关系对应的目标规则,目标规则包括:关系与新推断关系的映射关系,以及新推断关系中的实体的属性信息;根据目标篇章文档、第一关系三元组中包括的实体的属性信息和目标规则,推断第一关系三元组中包含的新推断关系三元组;输出第一关系三元组和新推断关系三元组。本申请可以提升推断出的新的关系组的准确性。
-
-
-
-
-
-
-
-
-