高保真换脸方法、系统、设备及存储介质

    公开(公告)号:CN116386122B

    公开(公告)日:2023-08-29

    申请号:CN202310648162.5

    申请日:2023-06-02

    Abstract: 本发明公开了一种高保真换脸方法、系统、设备及存储介质,它们是一一对应的方案,方案中:提取源人脸图像的全局身份表征;对源人脸图像与目标人脸图像各自进行解析与特征提取,并通过空间语义广播技术生成合成人脸图像的理想语义特征图;对源人脸图像与目标人脸图像,各自提取出相应的结构表征并生成合成人脸图像的理想结构信息;基于提取的源人脸图像的全局身份表征、合成人脸图像的理想语义特征图与合成人脸图像的理想结构信息,通过自适应融合的方式并经过解码后获得合成人脸图像;上述方案同时利用了人脸的局部语义信息和人脸中的结构性信息,可以取得较好的换脸效果,并且,还保留了源人脸的身份信息,可以更好的实现高保真换脸。

    一种多情绪指导的共情对话生成方法

    公开(公告)号:CN116306686B

    公开(公告)日:2023-08-29

    申请号:CN202310574090.4

    申请日:2023-05-22

    Abstract: 本发明涉及人工智能领域。本发明提供一种多情绪指导的共情对话生成方法,该方法将输入的文本进行上下文编码,并为文本中的每个词汇计算情绪强度值,根据情绪强度值构造多级情绪关系图来描述输入的文本和情绪的关系,并基于多级情绪关系图构造多级情绪关系图网络,迭代更新多级情绪关系图网络中的情绪边特征和节点特征,通过情绪边特征与全局上下文特征预测情绪概率的分布,通过改变初始情绪边权重和改变情绪节点的集合对多级情绪关系图网络进行改造更新,并生成答复语句。本发明通过对情感共现关系的分析和预测,实现了富含多种情绪的对话中的共情表达,提高了对话的情感交流效果和共情价值,指导对话的发展和转移,提高了对话的质量和效果。

    一种基于迁移模式感知的文本风格迁移方法

    公开(公告)号:CN116227428B

    公开(公告)日:2023-07-18

    申请号:CN202310510077.2

    申请日:2023-05-08

    Abstract: 本发明涉及自然语言生成领域。本发明提供了一种基于迁移模式感知的文本风格迁移方法,对输入的文本,输出对应的迁移模式分类,基于迁移模式分类和句子表示集合,定义类内对比学习损失,基于风格和句子表示集合定义类间对比学习损,并基于类内对比学习损失、类间对比学习损失、文本风格迁移模型的损失一起计算总体损失来训练文本风格迁移模型。使用训练后的文本风格迁移模型对目标文本进行文本风格迁移。本发明增加了句子表示的准确性和区分度,进而提高文本风格迁移任务的性能。本发明将迁移模式分类提取模型与文本风格迁移模型结合使用,提高了文本风格迁移模型的性能。

    基于目标特征动态自适应提取的小样本图像分类方法

    公开(公告)号:CN116071609B

    公开(公告)日:2023-07-18

    申请号:CN202310319375.3

    申请日:2023-03-29

    Abstract: 本公开提供一种基于目标特征动态自适应提取的小样本图像分类方法,包括:提取图像样本的显著性目标区域特征;通过自监督对比学习增强显著性目标区域特征;以及利用分类网络对输入的查询集的小样本图片做分类。该方法能够在无需人类标注显著目标区域的情况下建模当前任务的目标区域特征,减少了人类标注的需要;能够自动探索图像中的显著性目标区域,并根据不同任务灵活地提取目标区域信息;能够适应小样本任务训练集和测试集类别不重叠的特性,提高小样本图片分类的准确率。

    一种多情绪指导的共情对话生成方法

    公开(公告)号:CN116306686A

    公开(公告)日:2023-06-23

    申请号:CN202310574090.4

    申请日:2023-05-22

    Abstract: 本发明涉及人工智能领域。本发明提供一种多情绪指导的共情对话生成方法,该方法将输入的文本进行上下文编码,并为文本中的每个词汇计算情绪强度值,根据情绪强度值构造多级情绪关系图来描述输入的文本和情绪的关系,并基于多级情绪关系图构造多级情绪关系图网络,迭代更新多级情绪关系图网络中的情绪边特征和节点特征,通过情绪边特征与全局上下文特征预测情绪概率的分布,通过改变初始情绪边权重和改变情绪节点的集合对多级情绪关系图网络进行改造更新,并生成答复语句。本发明通过对情感共现关系的分析和预测,实现了富含多种情绪的对话中的共情表达,提高了对话的情感交流效果和共情价值,指导对话的发展和转移,提高了对话的质量和效果。

    一种基于视觉概念词关联结构化建模的图像描述方法

    公开(公告)号:CN116204674A

    公开(公告)日:2023-06-02

    申请号:CN202310475627.1

    申请日:2023-04-28

    Abstract: 本发明涉及计算机视觉和自然语言处理领域。本发明提出了一种基于视觉概念词关联结构化建模的图像描述方法,通过图像描述模型对输入的图像,生成所述图像的描述语句。图像描述模型的训练过程包括:将训练数据输入视觉特征提取和编码模块,得到视觉特征;将视觉特征输入视觉概念预测模块,得到对应的视觉概念词,将视觉概念词输入视觉概念关联结构化建模模块,得到结构化视觉语义概念词特征;将视觉特征和结构化视觉语义概念词特征输入描述生成模块,得到描述语句。基于总体损失函数训练模型。本发明提供的方法对单词在文本模态中的语言学先验的提取做了有效的约束。

    一种基于场景提示的单目标跟踪方法

    公开(公告)号:CN116168216A

    公开(公告)日:2023-05-26

    申请号:CN202310430642.4

    申请日:2023-04-21

    Abstract: 本公开提供一种基于场景提示的单目标跟踪方法,对视频图像中的目标进行动态跟踪,包括:确定包含目标的目标模板图像和搜索区域图像并分块;将分块后的目标模板图像和搜索区域图像通过线性映射得到对应的目标模板图像特征和搜索区域图像特征;将目标模板图像特征和搜索区域图像特征输入场景提示的视觉Transformer中,并在动态获取的场景提示符的作用下进行特征交互与增强;利用经过场景提示的视觉Transformer增强后的搜索区域特征回归目标框,并估计目标框的质量;以及跟踪器将目标框质量好的跟踪帧的特征保存在内存中,当到达给定的提示符更新间隔时,场景提示生成器利用内存中保存的特征生成新的场景提示符。

    基于多轮迭代策略和差异性感知的场景图生成方法

    公开(公告)号:CN116152647A

    公开(公告)日:2023-05-23

    申请号:CN202310413895.0

    申请日:2023-04-18

    Abstract: 本发明涉及图像理解技术领域,公开了一种基于多轮迭代策略和差异性感知的场景图生成方法,包括:场景图初始化,提取给定图像中目标的特征,得到场景图中节点的节点特征,以及融合了节点特征的边特征;将边特征输入至分类器进行预测,得到预测关系语义和更新后的边特征;将更新后的边特征重新输入至分类器进行预测;采用多轮迭代策略,得到最终的场景图;本发明从关系语义信息挖掘的角度提出了基于多轮迭代策略和差异性感知的场景图生成技术,多轮迭代推理机制模拟了人类回顾再重新推理的过程,差异性感知利用并挖掘了每次预测出的关系包含的丰富的语义信息,有助于提升模型对不同上下文场景的认知理解能力。

    基于目标特征动态自适应提取的小样本图像分类方法

    公开(公告)号:CN116071609A

    公开(公告)日:2023-05-05

    申请号:CN202310319375.3

    申请日:2023-03-29

    Abstract: 本公开提供一种基于目标特征动态自适应提取的小样本图像分类方法,包括:提取图像样本的显著性目标区域特征;通过自监督对比学习增强显著性目标区域特征;以及利用分类网络对输入的查询集的小样本图片做分类。该方法能够在无需人类标注显著目标区域的情况下建模当前任务的目标区域特征,减少了人类标注的需要;能够自动探索图像中的显著性目标区域,并根据不同任务灵活地提取目标区域信息;能够适应小样本任务训练集和测试集类别不重叠的特性,提高小样本图片分类的准确率。

Patent Agency Ranking