-
公开(公告)号:CN101917413B
公开(公告)日:2013-07-17
申请号:CN201010239916.4
申请日:2010-07-29
Applicant: 清华大学
Abstract: 本发明公开一种基于服务质量优化和语义信息集成的服务组装系统及方法,主要是为了提高服务组装的可靠性、稳定性和服务质量而设计。本发明包括:Web服务网络,提供服务及其对应的输入/输出数据类型;本体概念网络数据库,提供本体概念;索引产生服务器,建立服务的输入/输出数据类型和本体概念之间的“服务-数据类型-本体”索引,并将该索引存储在所述索引产生服务器内;服务组装引擎服务器,接收客户端需求的输入/输出数据类型,并在“服务-数据类型-本体”索引中查询与其匹配的数据类型,依据服务组装算法进行服务组装,得出服务组装结果;以及服务组装结果执行服务器。本发明集成了语义信息,服务质量最优,且能够高效地处理大规模的服务组装。
-
公开(公告)号:CN102333114A
公开(公告)日:2012-01-25
申请号:CN201110224440.1
申请日:2011-08-05
Applicant: 清华大学
IPC: H04L29/08
Abstract: 本发明提供了一种基于云服务的数据处理方案,方法包括:用户在云服务器端注册成为云服务器客户;云服务器为各用户分配处理空间;用户选择具有可视化模板的抽取构件;用户将本地数据上传到云服务器;云端对数据进行处理,包括对数据进行抽取、转换、分析和展示操作;数据处理结果保存在云服务器。装置包括:注册模块,用于完成用户在云服务器端的注册和空间分配;选择模块,用于选择具有可视化模板的抽取构件;上传模块,用于完成用户将数据上传到云服务器;数据处理模块,用于完成对数据的处理,包括对数据的抽取、转换、分析和展示;储存模块,用于完成数据在云端的储存;导出模块,用于完成将数据导出到用户本地。
-
公开(公告)号:CN119647586A
公开(公告)日:2025-03-18
申请号:CN202411522546.3
申请日:2024-10-29
Applicant: 清华大学
Abstract: 本发明提供一种大语言模型的训练方法、装置、电子设备及存储介质,涉及人工智能技术领域。其中,大语言模型的训练方法,包括:获取指令响应数据对;其中,指令响应数据对由指令和利用大语言模型根据指令生成的响应组成,响应包括预设领域的文本;从指令响应数据对包含的响应中,提取响应包含的约束信息;根据响应、响应包含的约束信息以及响应对应的指令,生成训练数据集;利用训练数据集,对预训练的大语言模型进行继续训练,得到目标大语言模型,以利用目标大语言模型根据指令,生成响应。本发明可以高效地训练得到可准确执行具有复杂约束的指令的大语言模型,进而有效提升计算资源的利用率。
-
公开(公告)号:CN114036956B
公开(公告)日:2024-12-03
申请号:CN202111371152.9
申请日:2021-11-18
Applicant: 清华大学
IPC: G06F40/30 , G06F40/295 , G06N3/045 , G06N3/088 , G06Q50/14
Abstract: 本发明提供一种旅游知识语义分析方法及装置。其中,该方法包括:获取待理解旅游知识文本;将所述待理解旅游知识文本输入至基于异构旅游知识的预训练语言模型中,得到所述预训练语言模型输出的语义理解结果;其中,所述预训练语言模型是以预设的非结构化文本、半结构化文本和满足结构条件的预设知识三元组文本为训练样本,并基于相应的无监督训练任务将所述训练样本统一建模到相同的上下文表示空间中得到的。本发明提供的旅游知识语义分析方法,能够通过利用多种格式文本训练得到的基于异构旅游知识的预训练语言模型对不同粒度的旅游知识文本进行分析,以提高旅游知识文本语义理解的准确度和鲁棒性,从而提升用户的使用体验。
-
公开(公告)号:CN113268606B
公开(公告)日:2024-10-29
申请号:CN202110586725.3
申请日:2021-05-27
Applicant: 清华大学
Abstract: 本发明提供一种知识图谱构建方法和装置,方法包括获取原始数据和大规模知识图谱;对所述原始数据进行知识建模,得到知识建模结果;基于所述知识建模结果和所述大规模知识图谱,生成概念层数据;对所述原始数据进行知识获取,其中包括实体抽取、实体分类以及第一实体属性抽取,得到实体、实体类别以及实体属性;将所述实体作为关键词输入所述大规模知识图谱,获取所述实体的实体相关信息;将所述实体、所述实体类别、所述实体属性、所述实体相关信息进行融合,得到完整的实体层数据;基于所述概念层数据与所述实体层数据建构新的知识图谱。本发明通过上述方法实现对知识图谱构建,同时也能够利用上述步骤实现对知识图谱使用过程中的更新。
-
公开(公告)号:CN118427292A
公开(公告)日:2024-08-02
申请号:CN202410531939.4
申请日:2024-04-29
Applicant: 清华大学
IPC: G06F16/31 , G06N20/00 , G06N3/09 , G06N3/0455
Abstract: 本发明提供一种针对信息抽取任务的大语言模型对齐方法及系统,该方法包括:确定信息抽取指导调整数据集;信息抽取指导调整数据集包括多样化的输入和答案输出;多样化的输入基于预设信息抽取数据在信息抽取任务上对齐大语言模型;答案输出与多样化的输入的格式要求对应;基于信息抽取指导调整数据集和预设通用对齐语料库对预设大语言模型进行监督微调训练,得到监督微调大语言模型。本发明为信息抽取任务确定了高质量的对齐数据,并基于对齐数据对预设大语言模型进行监督微调训练,使监督微调大语言模型在信息抽取任务上具有较好的泛化能力,且不影响大语言模型的通用性能。
-
公开(公告)号:CN112527977B
公开(公告)日:2024-06-25
申请号:CN202011241251.0
申请日:2020-11-09
Applicant: 清华大学
IPC: G06F16/332 , G06F16/33 , G06F16/36
Abstract: 本发明实施例提供一种概念抽取方法、装置、电子设备及存储介质,其中,该方法包括:根据预设的词表对待提取文本进行术语抽取,获取第一候选概念列表,并根据预设的知识图谱对待提取文本进行实体链接,获取第二候选概念列表;对第一候选概念列表和第二候选概念列表中的各候选概念进行重排序,根据重排序的结果获取待提取文本的概念抽取结果;其中,待提取文本为非结构化文本。本发明实施例提供的概念抽取方法、装置、电子设备及存储介质,通过对待提取文本进行术语抽取和实体链接获取的各候选概念进行重排序,根据重排序的结果获取概念抽取结果,能在标注数据较少甚至没有标注数据的情况下,从非结构化文本中更高效、准确等抽取出概念。
-
公开(公告)号:CN116975222A
公开(公告)日:2023-10-31
申请号:CN202310723628.3
申请日:2023-06-16
Applicant: 清华大学
IPC: G06F16/332 , G06N5/04 , G06N5/02 , G06F40/30
Abstract: 本发明提供一种阅读理解数据集生成方法及组件,该方法包括:构建阅读理解的知识文档;知识文档包括阅读材料文本、背景知识库和阅读材料文本与背景知识库的实体对齐关系;根据知识文档进行推理链抽取,得到推理链和问题三元组;根据推理链和问题三元组进行数据生成,得到自然语言问题和自然语言问题对应的答案,从而得到高质量的数据库,语言智能系统根据数据库进行深度语义理解推理出问题的答案的效率和精准性更高。
-
公开(公告)号:CN116862002A
公开(公告)日:2023-10-10
申请号:CN202310705109.4
申请日:2023-06-14
Applicant: 清华大学
Abstract: 本发明提供一种事件检测模型的解释方法、装置、电子设备及存储介质,其中的方法包括:基于待检测语句和预先训练的事件检测模型,抽取待解释的隐层表示;优化待解释的隐层表示,得到优化隐层表示;根据优化隐层表示,以及给定的事件结构信息集合,获取目标事件结构信息;其中,目标事件结构信息为与优化隐层表示最相关的事件触发词或事件论元。该方法通过将事件结构信息自然地融入至事件检测模型的解释过程中,克服了现有事件检测模型解释方法因忽略事件本身具有的结构信息,导致事件检测模型的可解释性能力不高的缺陷,有效提升了事件检测模型的可解释性能力,亦有助于理解事件检测模型的决策过程。
-
公开(公告)号:CN116561273A
公开(公告)日:2023-08-08
申请号:CN202310429991.4
申请日:2023-04-20
Applicant: 清华大学
IPC: G06F16/332 , G06F16/33 , G06F16/338 , G06F40/30
Abstract: 本发明涉及自然语言处理技术领域,提供一种文本问题的解答方法、装置、电子设备及存储介质,包括:确定目标文本问题,基于目标文本问题生成层次化问题分解树,层次化问题分解树包括根节点和叶子节点,根节点对应于目标文本问题,叶子节点对应于原子问题;确定目标文本问题和原子问题在不同知识源下的答案文本,根据答案文本确定目标文本问题的标准答案文本。本发明通过基于目标文本问题生成层次化问题分解树,并确定层次化问题分解树上的问题在不同知识源下的答案文本,根据答案文本确定目标文本问题的标准答案文本,做到更好地表示复杂问题的层次化的语义信息,并可以同时在不同层次上整合不同知识源中的信息用以回答复杂问题。
-
-
-
-
-
-
-
-
-