-
公开(公告)号:CN119378673A
公开(公告)日:2025-01-28
申请号:CN202411964175.4
申请日:2024-12-30
Applicant: 浙江大学 , 杭州高新区(滨江)区块链与数据安全研究院
IPC: G06N5/025 , G06N7/01 , G06Q30/0201 , G06F18/15 , G06F18/27
Abstract: 本发明公开了一种基于推理增强的人工智能预测方法。选择性偏差校正,有效减少选择性偏差的影响,从而提升预测的准确性。相比传统回归方法假设数据分布一致,本发明能够有效剔除伪相关,识别出真实的因果效应,从而在高偏差场景下展现更高的预测准确性。在数据特征缺失场景中展现出显著的鲁棒性和稳定性。采用完全条件规范多重插补得到不含缺失项的完整数据集,优于传统简单插补,不仅减少了插补偏差,还显著提高了模型在高缺失数据场景中的鲁棒性,能够更全面地利用外部因素信息,提高对复杂场景的适应能力。本发明对外部因素显式建模。这种针对外部因素的专门处理,使本发明在复杂环境中能够更好地捕捉外部信息的影响,提升预测效果。
-
公开(公告)号:CN119379866A
公开(公告)日:2025-01-28
申请号:CN202411961541.0
申请日:2024-12-30
Applicant: 浙江大学 , 杭州高新区(滨江)区块链与数据安全研究院
Abstract: 本发明公开了一种基于扩散模型的文本增强图像生成方法,通过场景文本解析与关系建模机制,本框架通过深度整合大语言模型,显著提升了文本理解能力,实现了对复杂场景关系的精确解析和语义理解,创新性地设计了物体提取、关系提取和物体定位等核心模块,实现了对场景中物体位置、属性等细节的精确把控、通过巧妙集成外部搜索引擎和专业的文本生成模块,有效突破了传统模型在图像文字渲染和专有名词物体生成方面的局限性,显著提升了生成内容的准确性和真实性,通过整合知识图谱,将物体关系表示为图结构,并以入度最多的物体为核心锚点生成场景布局。本机制显著提升了场景布局的语义一致性与视觉美观性。
-
公开(公告)号:CN119379866B
公开(公告)日:2025-04-04
申请号:CN202411961541.0
申请日:2024-12-30
Applicant: 浙江大学 , 杭州高新区(滨江)区块链与数据安全研究院
Abstract: 本发明公开了一种基于扩散模型的文本增强图像生成方法,通过场景文本解析与关系建模机制,本框架通过深度整合大语言模型,显著提升了文本理解能力,实现了对复杂场景关系的精确解析和语义理解,创新性地设计了物体提取、关系提取和物体定位等核心模块,实现了对场景中物体位置、属性等细节的精确把控、通过巧妙集成外部搜索引擎和专业的文本生成模块,有效突破了传统模型在图像文字渲染和专有名词物体生成方面的局限性,显著提升了生成内容的准确性和真实性,通过整合知识图谱,将物体关系表示为图结构,并以入度最多的物体为核心锚点生成场景布局。本机制显著提升了场景布局的语义一致性与视觉美观性。
-
公开(公告)号:CN119378613A
公开(公告)日:2025-01-28
申请号:CN202411962830.2
申请日:2024-12-30
Applicant: 浙江大学 , 杭州高新区(滨江)区块链与数据安全研究院
IPC: G06N3/0475 , G06N3/094 , G06F40/30 , G06F18/27 , G06F18/2415 , G06N3/0455 , G06N3/092 , G06N3/084
Abstract: 本发明公开了一种基于语义逻辑的大模型防御方法,通过基于语义逻辑分析和模型学习技术,系统地识别和阻断偏见的混淆效应,从而减少预训练数据中偏见对引导过程的影响,包含一个可解释组成,提供对生成输出与期望方向之间对齐的洞察,增强了引导过程的可解释性,增强了模型的透明度和用户的信任,该方法可能减少了对人工标注和计算资源的依赖,从而提高了资源效率,通过无偏见的引导表示,提高了模型在不同任务和领域中的泛化能力,这与现有技术泛化能力有限的问题形成对比,具有高可扩展性和适应性。可以应用在不同的语言模型中,可深入了解生成的输出与期望方向之间的一致性,从而增强转向过程的可解释性,同时减轻偏见的影响。
-
-
-