一种基于主题增强的文本摘要生成方法

    公开(公告)号:CN111782810A

    公开(公告)日:2020-10-16

    申请号:CN202010611844.5

    申请日:2020-06-30

    Applicant: 湖南大学

    Abstract: 本发明公开了一种基于主题增强的文本摘要生成方法,其步骤包括:步骤S1:对文本进行压缩编码后输入;步骤S2:将主题信息和源文信息结合,通过双注意力机制形成文本信息;所述双注意力机制包括主题注意力模块和文本注意力模块;步骤S3:将步骤S2形成的文本信息解码,生成与源文内容相关且主题信息增强的文本摘要。本发明具有原理简单、操作简便、能够大幅提升文本摘要生成内容的主题相关性和语句质量等优点。

    一种融合特征评估和多层感知器的语音情感识别方法

    公开(公告)号:CN107393525A

    公开(公告)日:2017-11-24

    申请号:CN201710607479.9

    申请日:2017-07-24

    Applicant: 湖南大学

    Abstract: 本发明公开一种融合特征评估和多层感知器的语音情感识别方法,步骤包括:S1.分别提取对应各类情感的训练语音集的多维情感特征参数,得到原始特征集;S2.对原始特征集中各情感特征参数进行评级排序,得到排序后的特征集;S3.分别从排序后的特征集中获取不同数量的多个特征子集,并使用多层感知器分别对各特征子集进行分类,根据分类结果选择最优的特征子集;S4.对最优的特征子集使用多层感知器训练情感分类模型,由训练得到的分类模型对待识别语音进行情感识别。本发明具有实现方法简单、能够融合特征评估和多层感知器实现情感识别,且情感识别精度以及效率高的优点。

    基于DIS-NV特征的情感识别方法

    公开(公告)号:CN107316654A

    公开(公告)日:2017-11-03

    申请号:CN201710607464.2

    申请日:2017-07-24

    Applicant: 湖南大学

    CPC classification number: G10L25/63 G10L15/063 G10L15/08 G10L15/14 G10L15/183

    Abstract: 本发明公开一种基于DIS-NV特征的情感识别方法,步骤包括:S1.选取具有不流利特性的情感词作为DIS特征词、以及具有非语言特性的发声类型作为NV特征类,构建得到DIS-NV特征集;S2.获取训练语音文本,分别与DIS-NV特征集进行匹配,提取对应的DIS-NV特征值,并采用BLSTM模型进行训练,得到BLSTM分类模型;S3.获取待识别语音文本,将待识别语音文本与DIS-NV特征集进行匹配,提取对应的DIS-NV特征值,并使用BLSTM分类模型进行识别,输出情感识别结果。本发明能够充分利用不流利、非语言特性的语音文本实现情感识别,且具有实现方法简单、识别效率以及精度高等优点。

    具有语音控制和哼唱检索功能的多媒体播放方法及装置

    公开(公告)号:CN103366784A

    公开(公告)日:2013-10-23

    申请号:CN201310298771.9

    申请日:2013-07-16

    Applicant: 湖南大学

    Inventor: 赵欢

    Abstract: 本发明公开了一种具有语音控制和哼唱检索功能的多媒体播放方法及装置,方法步骤如下:用户选择工作模式,采集语音数据并预处理,语音控制模式下,将语音数据与语法规则上传至语音识别服务端进行语音识别,根据识别结果进行播放控制或者资源管理;哼唱检索模式下,将语音数据提取基音序列并转换为音符序列,通过匹配搜索服务端找到与匹配的多媒体资源身份信息,并下载对应的多媒体资源到本地;装置包括人机交互模块、语音输入模块、语音数据处理模块、中央处理器、媒体存储模块、播放解码模块、音频输出模块、网络接口模块、匹配搜索服务端等。本发明具有能够解放用户的双手、用户体验好、使用方便、哼唱检测精确、应用范围广的优点。

    基于层级语音特征关键点位移的3D说话头动画生成方法及系统

    公开(公告)号:CN119205998A

    公开(公告)日:2024-12-27

    申请号:CN202411051124.2

    申请日:2024-08-01

    Applicant: 湖南大学

    Abstract: 本发明公开了一种基于层级语音特征关键点位移的3D说话头动画生成方法及系统,方法包括以下步骤:获取原始语音信号并提取不同层级的语音特征;通过可学习的线性层为每个层级的语音特征学习对应的重要性权重;计算各层级的语音特征的加权和,得到加权关键点位移;将加权关键点位移输入线性层得到预测的稀疏关键点位移;将稀疏关键点位移转换为稠密关键点位移;根据稠密关键点位移生成3D说话头动画。本发明有效捕捉到不同层级语音特征与面部关键点之间的相关性,帮助从语音里面推断面部细节,使得生成的3D说话头动画具有更高的质量。

    一种感知联合空间注意力文本生成图像方法

    公开(公告)号:CN114387366B

    公开(公告)日:2024-08-06

    申请号:CN202210043174.0

    申请日:2022-01-14

    Applicant: 湖南大学

    Abstract: 本发明公开了一种感知联合空间注意力文本生成图像方法,包括生成初始图像,绘制对象的基本形状和颜色;进行图像细化,生成从空间维度和单词重要性维度细化的新图像特征;细化过程包括通过细粒度单词级文本信息和图像信息融合,并联合空间注意力机制和动态记忆力机制对初始图像消除缺陷并添加细节,增强图像特征区域表征;通过训练目标函数,鼓励生成器生成更真实更符合文本语义的图像。本发明保证了生成器专注于与最相关的单词对应的图像子区域的内容以及位置和形状,同时避免了生成过程中的随机性,减少了最终生成的图像和目标图像之间的差异,本方法能够提高文本生成图像的感知质量和布局,能够高效准确得生成图像。

    保持数据和语义一致性的跨模态哈希检索方法及系统

    公开(公告)号:CN117743605A

    公开(公告)日:2024-03-22

    申请号:CN202311857379.3

    申请日:2023-12-29

    Applicant: 湖南大学

    Abstract: 本发明公开了一种保持数据和语义一致性的跨模态哈希检索方法及系统,方法包括:获取多模态数据的公共特征表示和独有特征表示,并基于公共特征表示和独有特征表示构建潜在数据一致性学习模型;根据多模态数据的最优特征表示以非对称范式的形式构建潜在语义一致性学习模型;分别迭代优化潜在数据一致性学习模型和潜在语义一致性学习模型,并根据优化后的两个学习模型生成最优哈希码;根据最优哈希码进行哈希函数学习,并根据学习得到的哈希函数完成跨模态哈希检索。本发明的方法可以最大化地保持多模态数据的数据和语义一致性,从而提高跨模态检索效果;且可以降低量化误差,从而减小量化误差对哈希码的学习和生成产生的不利影响。

    一种基于粗粒度和细粒度特征的对话生成方法及系统

    公开(公告)号:CN117743553A

    公开(公告)日:2024-03-22

    申请号:CN202311857382.5

    申请日:2023-12-29

    Applicant: 湖南大学

    Inventor: 赵欢 黎珊 查徐鹏

    Abstract: 本发明公开了一种基于粗粒度和细粒度特征的对话生成方法及系统,方法包括:对当前对话历史、知识文档及真实回复进行预处理,以得到预处理后的对话历史、知识文档及真实回复序列;对对话历史、知识文档及真实回复序列进行编码,并在训练时优化粗粒度特征提取器从对话历史和知识文档序列中获取与回复相关的粗粒度特征的能力;生成回复时,细粒度特征生成器结合粗粒度特征、已生成的单词序列及对话历史序列以计算得到回复中下一个单词的细粒度特征,以预测生成回复的下一个单词。本发明通过同时考虑回复的粗粒度特征和细粒度特征,可以在对话生成中的上下文一致性和信息性之间取得合适的平衡,以提高回复的质量。

    基于小波变换频域特征增强的图像翻译方法、装置及介质

    公开(公告)号:CN116596744A

    公开(公告)日:2023-08-15

    申请号:CN202310413128.X

    申请日:2023-04-17

    Applicant: 湖南大学

    Abstract: 本发明公开一种基于小波变换频域特征增强的图像翻译方法、装置及介质,该方法步骤包括:S01.在重构阶段时,将原始图像编码后进行解码得到重构图像,使用小波变换提取原始图像和重构图像的低频特征,并计算低频特征之间的差值,得到小波重构损失;S02.在翻译阶段时,将原始图像编码后进行翻译得到翻译图像,使用小波变换提取原始图像和翻译图像的高频特征,并计算高频特征之间的差值,得到小波翻译损失;S03.在模型训练阶段时,使用根据小波重构损失、小波翻译损失以及模型原始损失得到的整体损失约束生成器,以实现频域特征增强的图像翻译。本发明能够充分保留图像中的细节信息,有效提升翻译图像质量。

    一种基于多分辨率情感和多类型知识的情感对话生成方法

    公开(公告)号:CN114372135A

    公开(公告)日:2022-04-19

    申请号:CN202210042425.3

    申请日:2022-01-14

    Applicant: 湖南大学

    Abstract: 本发明公开了一种基于多分辨率情感和多类型知识的情感对话生成方法,包括接收对话中的语句文本,并进行标记;建立多分辨率情感模块;多分辨率情感模块将情感词转换为向量表示,生成最终多分辨率情感上下文;建立多类型知识交互模块;多类型知识交互模块通过对话上下文和多类型知识之间的联合交互构建情感增强的上下文;生成交互式向量,提取情感信号;解码器进行响应,生成情感响应并与用户输入共同构成情感对话。本发明利用多种类型的知识明确理解和表达情感对话生成中的情感,利用多类型知识获得情感增强的上下文语境图,利用多分辨率情感来更好地捕捉用户情感的细微变化,并将多向量进行融合并提取情感信号,来指导情感响应的生成。

Patent Agency Ranking