-
公开(公告)号:CN118840414B
公开(公告)日:2025-04-29
申请号:CN202411038198.2
申请日:2024-07-30
Applicant: 华院计算技术(上海)股份有限公司
Abstract: 本发明提供一种视觉Transformer模型设计方法、装置、存储介质和程序产品,其中,方法包括:设定最小形变图像的大小和最小区域块的大小;根据原图的宽高,得到原图的长边与短边之比取整的值,确定形变目标图像的一边长和待划分区域块的一边长;根据原图的长边与短边之比取整的值,计算出形变目标图像的宽高和待划分区域块的宽高;根据形变目标图像的宽高和待划分区域块的宽高,对图像进行形变和划分,得到若干区域块,送入Transformer结构中。将每个区域块划分成若干方块,对所述若干方块进行编码,得到每个区域块特征;整合所有的区域块特征,送入Transformer结构中进行训练。本发明可以在较少形变情况下提取更符合原始图像的特征信息。
-
公开(公告)号:CN119248916A
公开(公告)日:2025-01-03
申请号:CN202411303314.9
申请日:2024-09-18
Applicant: 华院计算技术(上海)股份有限公司
IPC: G06F16/332 , G06F16/33 , G06F40/30 , G06N5/04 , G06N5/022 , G06N3/0455
Abstract: 本发明提供一种自适应检索增强大语言模型构建和问答方法、系统、存储介质和程序产品,其中构建方法包括:收集问答数据,包括问题、标准答案和参考的上下文;使用大语言模型回答问题,得到初始答案;判断所述初始答案和标准答案是否一致,根据判断结果构建训练数据;基于所述训练数据,对大语言模型进行微调训练,得到自适应检索增强大语言模型。问答方法包括:输入问题;自适应检索增强大语言模型回答问题,并判断是否需要获取额外知识;根据判断结果,输出answer作为最终答案。本发明能够在资源利用和回答质量之间实现平衡,解决资源消耗大、问答效率低以及回答准确度差的问题。
-
公开(公告)号:CN118674995A
公开(公告)日:2024-09-20
申请号:CN202410909676.6
申请日:2024-07-09
Applicant: 华院计算技术(上海)股份有限公司
IPC: G06V10/764 , G06V10/30 , G06V10/82 , G06V10/40 , G06N3/0464
Abstract: 本公开提供了一种图片的多标签分类方法、系统及电子设备。多标签分类方法包括:获取目标图片的第一图片特征;其中,第一图片特征包含冗余信息和噪音;基于多头注意力机制对第一图片特征进行压缩处理,以去除冗余信息,得到第二图片特征;基于稀疏编码对第二图片特征进行去噪处理,以得到目标图片特征;对目标图片特征所属的类别进行概率预测,以对目标图片进行多标签分类。基于多头注意力机制和稀疏编码依次对第一图片特征进行压缩和去噪处理,以去除第一图片特征中的以使得到的目标图片特征冗余信息和噪声,以使得到的目标图片特征只保留有价值的特征,进而使用该目标图片特征进行图片的多标签分类的效果更佳。
-
公开(公告)号:CN118657483A
公开(公告)日:2024-09-17
申请号:CN202410687885.0
申请日:2024-05-30
Applicant: 华院计算技术(上海)股份有限公司
IPC: G06Q10/10 , G06N5/04 , G06F16/332
Abstract: 本公开提供一种工作流管理方法、系统、设备、介质和程序产品,工作流管理方法包括:响应于用户的输入触发,在不满足工作流停止条件时,通过训练好的深度学习语言表示模型从用户输入的信息中识别出需要跳转到的下一个工作流节点,并跳转到下一个工作流节点;通过训练好的大语言模型引导并提取用户提供当前工作流节点所需的信息,并存储提取出的信息;在已获得当前工作流节点所需的全部信息时完成执行当前工作流节点。本公开通过将大语言模型与传统的深度学习语言表示模型相结合的任务流管理,既能够基于人机对话交互模式辅助用户高效完成任务,又能够支持工作流的灵活扩展和节点间的准确地自由跳转,从而成为用户日常工作中不可或缺的可靠助手。
-
公开(公告)号:CN118569385A
公开(公告)日:2024-08-30
申请号:CN202410658940.3
申请日:2024-05-24
Applicant: 华院计算技术(上海)股份有限公司
IPC: G06N5/04 , G06N5/025 , G06N3/045 , G06F16/332 , G06F16/33
Abstract: 本发明提供一种融合大语言模型的智能任务型对话方法,具体包括:获取与用户的对话;针对用户的输入信息进行识别解析,获取识别解析的结果;根据所述识别解析的结果同步更新对话状态追踪器的状态;根据追踪器的智能引导至恰当的对话场景节点;执行预先设定好的Action以完成特定的任务;基于当前对话节点情境和对话历史数据,生成机器人的反馈话术。本发明结合了大语言模型的强大能力,实现了场景的快速适应和高效配置。通过动态加载特定场景的配置信息,该系统能够按照预设的流程逻辑高效地推进轮对话过程,极大地简化了数据标注和模型训练的步骤。
-
公开(公告)号:CN118332068A
公开(公告)日:2024-07-12
申请号:CN202410363601.2
申请日:2024-03-28
Applicant: 华院计算技术(上海)股份有限公司
Abstract: 本发明公开了一种数据管理系统的构建方法、使用方法、设备、介质及产品,涉及自然语言处理领域。该方法应用于数据管理系统,系统包括数据存储架构模块、知识库模块和历史对话检索模块,方法包括基于初始文本信息构建数据存储架构模块,初始文本信息为文档结构化生成的片段或问答,基于信息抽取模型将初始文本信息进行标签化处理,构建知识库模块,基于双层分类模型对与用户产生的对话进行分类,并将分类后的对话进行存储生成历史对话库,与用户产生的对话基于用户与初始文本信息交互形成,历史对话检索模块基于历史对话库构建。本发明中将历史对话进行分类存储,不仅避免直接存储干扰信息,还能结合上下文,将多轮对话中的信息完整全面的保存。
-
公开(公告)号:CN118297107A
公开(公告)日:2024-07-05
申请号:CN202410390211.4
申请日:2024-04-02
Applicant: 华院计算技术(上海)股份有限公司
Abstract: 本公开提供了一种大语言模型的处理方法、系统、设备、介质及程序产品,处理方法包括:获取数据集;根据数据集生成伪标签数据;根据伪标签数据获取指令微调数据;利用指令微调数据对原始大语言模型进行指令微调,得到新的大语言模型。本公开根据获取的数据集生成伪标签数据;再根据伪标签数据获取指令微调数据;利用指令微调数据对原始大语言模型进行指令微调,得到新的大语言模型,实现了基于伪标签数据对大语言模型进行指令微调,有效的缓解了大语言模型灾难性遗忘的问题,严格遵守了连续学习的形式,降低了计算的复杂度,提高了计算的效率和准确率。
-
公开(公告)号:CN114661861B
公开(公告)日:2024-06-21
申请号:CN202210170758.4
申请日:2022-02-23
Applicant: 华院计算技术(上海)股份有限公司
Abstract: 一种文本匹配方法及装置、存储介质、终端,所述方法包括:获取第一文本;构建所述第一文本的要素图;提取所述第一文本的语义信息;获取第二文本的语义信息和结构信息,所述第二文本的结构信息包括:所述第二文本的要素图和/或图嵌入特征信息,所述图嵌入特征信息是根据所述要素图计算得到的;根据所述第一文本的语义信息、要素图和所述第二文本的语义信息、结构信息,确定所述第一文本和所述第二文本的匹配结果。通过本发明提供的方案,能够提高文本匹配的准确度。
-
公开(公告)号:CN118113845A
公开(公告)日:2024-05-31
申请号:CN202410269522.5
申请日:2024-03-08
Applicant: 华院计算技术(上海)股份有限公司
IPC: G06F16/332 , G06F16/35 , G06F18/214
Abstract: 本发明提供一种生成式大语言模型选择题评测的方法及系统,其中方法包括以下步骤:获取选择题;对所述选择题进行重构和扩充,得到扩充后的选择题;对各个所述扩充后的选择题进行大模型回答文本匹配和大模型token约束回答,得到大模型答案;对所述大模型答案进行综合评分。本发明能够更全面更有效地检验大模型是否真正理解并拥有解答问题的能力,使得能力评估的分数更为客观准确,对由于模型输出内容不符合规范或者模型输出内容无法被正则模板匹配命中的问题进行补偿,有效地避免大模型直接回答问题时需要二次解析的情况,有效弥补了模型缺乏各个选项之间信息交互的问题,并且支持多选题评测。
-
公开(公告)号:CN118035409A
公开(公告)日:2024-05-14
申请号:CN202410084376.9
申请日:2024-01-19
Applicant: 华院计算技术(上海)股份有限公司
Abstract: 本申请提供了一种问答方法及装置、存储介质、计算设备,该问答方法包括:获取问题,并提取所述问题的关键词,以得到至少一个主题实体;根据所述至少一个主题实体在知识图谱中搜索相关的候选关系和候选实体,形成至少一个候选路径;将所述至少一个候选路径输入至大语言模型,以供所述大语言模型生成所述问题的答案。本申请提供了一种提升大语言模型的问答准确率的方案。
-
-
-
-
-
-
-
-
-