-
公开(公告)号:CN115690553B
公开(公告)日:2023-04-11
申请号:CN202310000559.3
申请日:2023-01-03
Applicant: 华南理工大学
Abstract: 本发明公开了一种基于多模态对话内容联合建模的情感分析方法及系统,涉及机器智能技术。由于传统的情感分析方法不能较为完整地从多模态对话中捕捉到各模态之间的依赖以及对话中上下文和说话人之间的依赖关系进行情感分析,为此提出这种基于多模态对话内容联合建模的说话人连续情感分析方法,该方法以基于对话的多模态预训练模型为基础,经过情感分类模块,在相应数据集上进行微调训练,得到可以在语音、视频、文本模态上使用的情感分析方法。为此同时提出预训练模型的方法,比起传统的预训练方法,该方法具有说话人嵌入以及对话轮数嵌入模块,使得整个预训练模型学习到更加适应对话场景任务的语言模型。
-
公开(公告)号:CN115690553A
公开(公告)日:2023-02-03
申请号:CN202310000559.3
申请日:2023-01-03
Applicant: 华南理工大学
Abstract: 本发明公开了一种基于多模态对话内容联合建模的情感分析方法及系统,涉及机器智能技术。由于传统的情感分析方法不能较为完整地从多模态对话中捕捉到各模态之间的依赖以及对话中上下文和说话人之间的依赖关系进行情感分析,为此提出这种基于多模态对话内容联合建模的说话人连续情感分析方法,该方法以基于对话的多模态预训练模型为基础,经过情感分类模块,在相应数据集上进行微调训练,得到可以在语音、视频、文本模态上使用的情感分析方法。为此同时提出预训练模型的方法,比起传统的预训练方法,该方法具有说话人嵌入以及对话轮数嵌入模块,使得整个预训练模型学习到更加适应对话场景任务的语言模型。
-
公开(公告)号:CN112084983B
公开(公告)日:2022-07-26
申请号:CN202010966106.2
申请日:2020-09-15
Applicant: 华南理工大学
Abstract: 本发明公开了一种基于ResNet的造型推荐方法及其应用,该方法包括下述步骤:准备人脸数据集;利用Dlib库对人脸数据集进行人脸关键点的提取;根据眉毛最高点和鼻尖所在点,将人脸分为上、中、下三庭的人脸数据集;修改图像文件名进行标签标注;调整三个数据集的图片大小;建立面部特征与发型属性的映射表;采用ResNet神经网络分别针对三庭进行训练并保存模型;对人脸进行面部特征分析,并根据映射表给予发型推荐属性的结果;建立发型库,并为每个发型标注发型属性,在发型库检索得到推荐发型编号;根据推荐的发型利用增强现实技术替换用户实际发型进行发型预览。本发明为用户提供发现智能发型推荐服务,并用增强现实技术实现实时效果预览。
-
公开(公告)号:CN117582227A
公开(公告)日:2024-02-23
申请号:CN202410069422.8
申请日:2024-01-18
Applicant: 华南理工大学
IPC: A61B5/16 , A61B5/1455 , A61B5/00 , G06F18/2431 , G06N3/0464 , G06F18/214
Abstract: 本发明涉及情绪识别领域,为基于概率分布标签和脑区特征的fNIRS情绪识别方法及系统,其方法包括:构建情绪诱发数据集,采集受试者不同脑区的近红外数据,获取受试者的主观情绪评分;将不同脑区的近红外数据转化为多通道△HbO2数据,将主观情绪评分映射为情绪类别标签和情绪概率分布标签;将多通道△HbO2数据分脑区通过时序卷积模型得到不同脑区特征向量,结合自注意力机制融合不同脑区特征向量,构建初始情绪识别模型;设计结合情绪概率分布标签和情绪类别标签的联合损失函数,对初始情绪识别模型进行训练,获得训练后的情绪识别模型,用于输出情绪识别分类结果。本发明能反应实场景中个体所产生的多元性和复杂性的情绪变化。
-
公开(公告)号:CN112015934B
公开(公告)日:2022-07-26
申请号:CN202010877588.4
申请日:2020-08-27
Applicant: 华南理工大学
IPC: G06F16/53 , G06V40/16 , G06K9/62 , G06N3/04 , G06N3/08 , G06V10/774 , G06V10/764
Abstract: 本发明公开了一种基于神经网络和Unity的智能发型推荐方法、装置及系统,该方法包括下述步骤:建立脸部特征与发型属性映射表;构建数据集;根据不同面部特征对数据集内部图片进行不同的预处理操作;训练对应的神经网络,完成对应面部特征的分类预测;进行面部特征分析,根据映射表给出推荐发型的属性;建立发型库,并为每个发型标注发型属性,在发型库检索得到推荐发型编号;根据关键点坐标生成用户脸部3D模型;用户脸部3D模型与指定编号的多个发型渲染合成3D发型推荐效果展示模型,接收用户面部图片进行发型展示效果预览。本发明实现了为用户提供智能发型推荐服务,并以3D模型的表现形式实现试发效果展示。
-
公开(公告)号:CN112015934A
公开(公告)日:2020-12-01
申请号:CN202010877588.4
申请日:2020-08-27
Applicant: 华南理工大学
Abstract: 本发明公开了一种基于神经网络和Unity的智能发型推荐方法、装置及系统,该方法包括下述步骤:建立脸部特征与发型属性映射表;构建数据集;根据不同面部特征对数据集内部图片进行不同的预处理操作;训练对应的神经网络,完成对应面部特征的分类预测;进行面部特征分析,根据映射表给出推荐发型的属性;建立发型库,并为每个发型标注发型属性,在发型库检索得到推荐发型编号;根据关键点坐标生成用户脸部3D模型;用户脸部3D模型与指定编号的多个发型渲染合成3D发型推荐效果展示模型,接收用户面部图片进行发型展示效果预览。本发明实现了为用户提供智能发型推荐服务,并以3D模型的表现形式实现试发效果展示。
-
公开(公告)号:CN117582227B
公开(公告)日:2024-04-30
申请号:CN202410069422.8
申请日:2024-01-18
Applicant: 华南理工大学
IPC: A61B5/16 , A61B5/1455 , A61B5/00 , G06F18/2431 , G06N3/0464 , G06F18/214
Abstract: 本发明涉及情绪识别领域,为基于概率分布标签和脑区特征的fNIRS情绪识别方法及系统,其方法包括:构建情绪诱发数据集,采集受试者不同脑区的近红外数据,获取受试者的主观情绪评分;将不同脑区的近红外数据转化为多通道△HbO2数据,将主观情绪评分映射为情绪类别标签和情绪概率分布标签;将多通道△HbO2数据分脑区通过时序卷积模型得到不同脑区特征向量,结合自注意力机制融合不同脑区特征向量,构建初始情绪识别模型;设计结合情绪概率分布标签和情绪类别标签的联合损失函数,对初始情绪识别模型进行训练,获得训练后的情绪识别模型,用于输出情绪识别分类结果。本发明能反应实场景中个体所产生的多元性和复杂性的情绪变化。
-
公开(公告)号:CN116108856A
公开(公告)日:2023-05-12
申请号:CN202310107383.1
申请日:2023-02-14
Applicant: 华南理工大学
IPC: G06F40/30 , G06F40/295 , G06N3/045 , A61B5/16 , A61B5/00
Abstract: 本发明公开了一种基于长短回路认知与显隐情感交互的情感识别方法及系统,该方法步骤包括:提取对话情感数据集的句子特征向量和说话人序列信息;构建三种长短回路认知关系图,将三种长短回路认知关系图通过邻接矩阵转置再加上单位矩阵,变为对应的长短回路认知关系掩码,将对话的句子特征向量拼接得到话语特征序列,话语特征序列输入到语义编码器中得到情绪的语义特征向量,构建历史情感序列后输入情绪解码器中得到目标话语的情绪特征向量,将目标话语的语义特征向量和情绪特征向量融合,经过softmax函数分类后,选取预测概率最大的类的下标得到预测的情绪。本发明对情感序列进行显式和隐式建模,同时具有隐性和显性建模的优势。
-
公开(公告)号:CN115658908B
公开(公告)日:2023-04-11
申请号:CN202211700508.3
申请日:2022-12-29
Applicant: 华南理工大学
IPC: G06F16/35 , G06F40/205 , G06F40/284 , G06F40/30 , G06N3/04
Abstract: 本发明公开了一种基于对话交互过程的大五人格感知方法及其系统,涉及智能对话技术,针对现有技术中人格分析依赖于大篇幅内容的问题提出本方案。系统包括用户对话数据获取模块;用户对话数据处理模块,用于分别将用户对话数据中的对话内容、对话人物进行表征;将用户对话数据处理为可计算的向量并进行表征;大五人格分析模块,用于将处理后的用户对话数据进行人物个性向量的更新及自然语言理解,共同形成新的对话生成输入数据;对话生成模块。优点在于,首先提出了基于对话的大五人格分析模型,比起传统的大五人格分析模型,更大化的优化了在对话层面的分析准确度。使用了人物个性特征,在不影响对话质量的前提下,优化了对话的个性化表达。
-
公开(公告)号:CN116108856B
公开(公告)日:2023-07-18
申请号:CN202310107383.1
申请日:2023-02-14
Applicant: 华南理工大学
IPC: G06F40/30 , G06F40/295 , G06N3/045 , A61B5/16 , A61B5/00
Abstract: 本发明公开了一种基于长短回路认知与显隐情感交互的情感识别方法及系统,该方法步骤包括:提取对话情感数据集的句子特征向量和说话人序列信息;构建三种长短回路认知关系图,将三种长短回路认知关系图通过邻接矩阵转置再加上单位矩阵,变为对应的长短回路认知关系掩码,将对话的句子特征向量拼接得到话语特征序列,话语特征序列输入到语义编码器中得到情绪的语义特征向量,构建历史情感序列后输入情绪解码器中得到目标话语的情绪特征向量,将目标话语的语义特征向量和情绪特征向量融合,经过softmax函数分类后,选取预测概率最大的类的下标得到预测的情绪。本发明对情感序列进行显式和隐式建模,同时具有隐性和显性建模的优势。
-
-
-
-
-
-
-
-
-