-
公开(公告)号:CN114387366B
公开(公告)日:2024-08-06
申请号:CN202210043174.0
申请日:2022-01-14
Applicant: 湖南大学
IPC: G06T11/00 , G06F40/284 , G06V10/80 , G06N3/0464 , G06N3/045 , G06N3/0475 , G06N3/094 , G06V10/82
Abstract: 本发明公开了一种感知联合空间注意力文本生成图像方法,包括生成初始图像,绘制对象的基本形状和颜色;进行图像细化,生成从空间维度和单词重要性维度细化的新图像特征;细化过程包括通过细粒度单词级文本信息和图像信息融合,并联合空间注意力机制和动态记忆力机制对初始图像消除缺陷并添加细节,增强图像特征区域表征;通过训练目标函数,鼓励生成器生成更真实更符合文本语义的图像。本发明保证了生成器专注于与最相关的单词对应的图像子区域的内容以及位置和形状,同时避免了生成过程中的随机性,减少了最终生成的图像和目标图像之间的差异,本方法能够提高文本生成图像的感知质量和布局,能够高效准确得生成图像。
-
公开(公告)号:CN114372135A
公开(公告)日:2022-04-19
申请号:CN202210042425.3
申请日:2022-01-14
Applicant: 湖南大学
IPC: G06F16/332 , G06F40/242 , G06F40/216 , G06F40/284 , G06N5/02 , G06N3/04
Abstract: 本发明公开了一种基于多分辨率情感和多类型知识的情感对话生成方法,包括接收对话中的语句文本,并进行标记;建立多分辨率情感模块;多分辨率情感模块将情感词转换为向量表示,生成最终多分辨率情感上下文;建立多类型知识交互模块;多类型知识交互模块通过对话上下文和多类型知识之间的联合交互构建情感增强的上下文;生成交互式向量,提取情感信号;解码器进行响应,生成情感响应并与用户输入共同构成情感对话。本发明利用多种类型的知识明确理解和表达情感对话生成中的情感,利用多类型知识获得情感增强的上下文语境图,利用多分辨率情感来更好地捕捉用户情感的细微变化,并将多向量进行融合并提取情感信号,来指导情感响应的生成。
-
公开(公告)号:CN114372135B
公开(公告)日:2025-01-03
申请号:CN202210042425.3
申请日:2022-01-14
Applicant: 湖南大学
IPC: G06F16/332 , G06F40/242 , G06F40/216 , G06F40/284 , G06N5/022 , G06N5/04
Abstract: 本发明公开了一种基于多分辨率情感和多类型知识的情感对话生成方法,包括接收对话中的语句文本,并进行标记;建立多分辨率情感模块;多分辨率情感模块将情感词转换为向量表示,生成最终多分辨率情感上下文;建立多类型知识交互模块;多类型知识交互模块通过对话上下文和多类型知识之间的联合交互构建情感增强的上下文;生成交互式向量,提取情感信号;解码器进行响应,生成情感响应并与用户输入共同构成情感对话。本发明利用多种类型的知识明确理解和表达情感对话生成中的情感,利用多类型知识获得情感增强的上下文语境图,利用多分辨率情感来更好地捕捉用户情感的细微变化,并将多向量进行融合并提取情感信号,来指导情感响应的生成。
-
公开(公告)号:CN114387366A
公开(公告)日:2022-04-22
申请号:CN202210043174.0
申请日:2022-01-14
Applicant: 湖南大学
Abstract: 本发明公开了一种感知联合空间注意力文本生成图像方法,包括生成初始图像,绘制对象的基本形状和颜色;进行图像细化,生成从空间维度和单词重要性维度细化的新图像特征;细化过程包括通过细粒度单词级文本信息和图像信息融合,并联合空间注意力机制和动态记忆力机制对初始图像消除缺陷并添加细节,增强图像特征区域表征;通过训练目标函数,鼓励生成器生成更真实更符合文本语义的图像。本发明保证了生成器专注于与最相关的单词对应的图像子区域的内容以及位置和形状,同时避免了生成过程中的随机性,减少了最终生成的图像和目标图像之间的差异,本方法能够提高文本生成图像的感知质量和布局,能够高效准确得生成图像。
-
-
-