语音情感的识别方法、装置、电子设备及计算机存储介质

    公开(公告)号:CN119905115A

    公开(公告)日:2025-04-29

    申请号:CN202510126375.0

    申请日:2025-01-26

    Abstract: 本申请提供一种语音情感的识别方法、装置、电子设备及计算机存储介质,通过集成了特征提取器、目标情感表征适配器和目标情感分配器的语音情感识别模型来对语音数据的情感进行识别,得到情感分类结果。在模型训练过程中,利用多样化的情景任务构建,模拟实际复杂场景中的域分布差异情况,并采用基于情景学习的策略提高实际复杂场景下的域泛化能力。具体而言,在预训练阶段引入了局部域分布对齐损失,减少域间情感特征的分布偏差,实现了情感特征的跨域对齐与融合。在微调阶段,使用解耦学习的方法,促使情感表征适配器和分类器能够逐步适应新的情感表达场景。从而有效的减小了域间差异对情感识别性能的影响,大幅提升了情感特征的鲁棒性与推广性。

    基于记忆及检索增强的大模型医疗诊疗方案生成方法

    公开(公告)号:CN118692663B

    公开(公告)日:2025-01-24

    申请号:CN202411178359.8

    申请日:2024-08-27

    Abstract: 本发明涉及诊疗方案生成技术领域,公开了一种基于记忆及检索增强的大模型医疗诊疗方案生成方法,将患者信息文本输入到完成训练的生成模型,得到最终诊疗方案;生成模型的训练过程包括以下步骤:检索与患者信息文本最相近的相似患者信息文本;将患者信息文本和相似患者信息文本输入记忆模块,得到相似患者信息表征;将患者信息文本以及相似患者信息表征分别输入到医疗大模型中,生成中间诊疗方案;对生成的中间诊疗方案进行整合,得到最终诊疗方案;将人工标注的诊疗方案分别与中间诊疗方案以及最终诊疗方案进行对比,计算交叉熵损失对生成模型进行训练;使得多个大模型的可以从不同方面生成诊疗方案,提高最终报告的全面性。

    面向语音情感识别的局部属性学习方法及装置

    公开(公告)号:CN119229903A

    公开(公告)日:2024-12-31

    申请号:CN202411659051.5

    申请日:2024-11-19

    Abstract: 本申请公开了一种面向语音情感识别的局部属性学习方法及装置,该方法为:利用特征提取结构,获得无监督语音数据的通用特征;利用局部特征适配器,对通用特征进行处理,获得适配情感语音数据的局部特征;基于第二特征,确定对应的属性学习损失;基于第一特征以及多个局部属性,确定多个概率值;基于多个概率值,确定对应的局部属性对比损失;基于属性学习损失和局部属性对比损失,确定目标模型的损失函数。该方法基于属性学习损失以及局部属性损失作为目标模型的损失函数,能够在语音情感数据量不足的情况下,通过对目标模型提取的局部特征进行深入建模,精确捕捉语音情感复杂性所带来的局部统计信息变化,从而提升目标模型的语音情感识别性能。

    基于记忆及检索增强的患者大模型分类方法及系统

    公开(公告)号:CN119150066A

    公开(公告)日:2024-12-17

    申请号:CN202411158833.0

    申请日:2024-08-22

    Abstract: 本发明公开了基于记忆及检索增强的患者大模型分类方法及系统,涉及人工智能技术领域,将当前患者信息输入到训练完成后的医疗大模型中,以输出患者信息的分类结果;医疗大模型的训练过程如下:步骤一、获取不同患者信息以构建训练数据集,对训练数据集中的第i个数据通过检索模块检索得到对应的知识实例;步骤二、将每个知识实例通过记忆插件得到知识实例表示;步骤三、将第i个数据输入到大语言模型中,利用门控机制将第i个数据对应的知识实例表示纳入大语言模型的信息流中,从而输出第i个数据的分类结果;该患者大模型分类方法及系统,能够根据病人的具体病情动态调整所使用的知识实例,从而显著提高了病人分类的准确性。

    一种机器翻译增强训练方法及系统

    公开(公告)号:CN113204978B

    公开(公告)日:2024-04-02

    申请号:CN202110523435.4

    申请日:2021-05-13

    Abstract: 本发明涉及一种机器翻译增强训练方法及系统,其方法包括:S1:获取训练数据,训练数据包括:源端句子和目标端句子;S2:分别使用源端句子和目标端句子训练源端语言模型和目标端语言模型;S3:随机选择源端句子中子词,并根据源端句子构造移位后的句子,输入源端语言模型,对移位后的句子中对应的子词进行预测,根据预测结果进行加权求和,实现对源端句子的增强;S4:根据源端句子和目标端句子的注意力权重分布,并根据源端句子中子词替换目标端句子中对应子词,利用语言模型和神经机器翻译模型联合预测结果,以实现对目标端句子的增强。本发明通过对平行训练数据进行加噪和增强,从而提升低资源条件下神经机器翻译模型的训练效果和鲁棒性。

    大模型结合双路记忆的多模态有害社交媒体内容识别方法

    公开(公告)号:CN117077085B

    公开(公告)日:2024-02-09

    申请号:CN202311339502.2

    申请日:2023-10-17

    Abstract: 本发明涉及社交媒体内容识别技术领域,公开了一种大模型结合双路记忆的多模态有害社交媒体内容识别方法,包括以下步骤:利用图像编码器提取图像的图像特征;利用文本嵌入模块,提取文本的文本特征;应用双通道记忆模块对图像特征以及文本特征建模,得到图像向量以及文本向量;利用大模型进行标签预测:图像向量以及文本向量输入到大模型中,生成标签。本发明通过双通道记忆模块,可以根据视觉特征为不同的记忆向量计算权重,这种权重分配使得模型能够更加准确地对信息进行对齐和融合。此外,视觉通道与文本通道采用相同的程序处理,(56)对比文件Abhinav Kumar 等.A deep multi‑modalneural network for informative Twittercontent classif cation during emergencies《.https://doi.org/10.1007/s10479-020-03514-x》.2022,全文.Bo Wu 等.Sequential Prediction ofSocial Media Popularity with DeepTemporal Context Networks《.arXiv:1712.04443v1》.2017,全文.

    一种基于图结构的情绪原因提取方法

    公开(公告)号:CN115841119B

    公开(公告)日:2023-06-16

    申请号:CN202310144042.1

    申请日:2023-02-21

    Abstract: 本发明涉及自然语言处理技术领域,公开了一种基于图结构的情绪原因提取方法;在图构建模块中,通过在情绪原因句子、情绪句子以及情绪之间构建边,有效构建起了他们之间的上下文和情绪信息之间的关系,并通过关系图卷积网络和注意力图卷积神经网络的建模有效利用了这些信息,从而提升了模型的性能;通过注意力图卷积神经网络模块计算注意力系数,对不同的上下文信息和情绪信息进行加权,实现了对不同信息的重要性的识别和利用,有效避免了这些信息中潜在的噪音对模型性能的影响。

    一种基于卷积联合模型的对话情感识别方法

    公开(公告)号:CN116258134A

    公开(公告)日:2023-06-13

    申请号:CN202310443460.0

    申请日:2023-04-24

    Abstract: 本发明公开了一种基于卷积联合模型的对话情感识别方法,所述卷积联合模型包括神经主题模型和注意力关系图网络模型,所述对话情感识别方法包括如下步骤:将对话中语句输入到已训练完成的卷积联合模型中,以输出对话中语句对应的情感类别;该对话情感识别方法充分利用了语句的隐含主题信息强化对话语句间的信息交互以及其特征表示,促进解码器预测出情感类别。

    一种语音识别模型的量化定标方法及装置

    公开(公告)号:CN116013269A

    公开(公告)日:2023-04-25

    申请号:CN202211674197.8

    申请日:2022-12-26

    Abstract: 本申请实施例记载了一种语音识别模型的量化定标方法。在该方法中,获取语音识别模型的待量化层的待量化数据;根据待量化数据最大值和待量化数据平均值计算第一比值;当第一比值小于或等于预设的阈值时,则计算量化标值,量化标值为当前整型的表示范围的最大值与待量化数据最大值的比值;根据量化标值对待量化数据进行训练,得到训练完成后的语音识别模型,训练后的语音识别模型用于对待识别的语音数据进行识别。由此可见,利用本申请实施例提供的方案,通过计算量化标值,并根据该量化标值对待量化数据进行转换,可以最大限度地降低计算转换过程中网络计算精度的丢失,通过对转换后的数据进行训练能够提高语音识别的精确度。

    一种语音识别方法及装置
    20.
    发明公开

    公开(公告)号:CN115841811A

    公开(公告)日:2023-03-24

    申请号:CN202211324977.X

    申请日:2022-10-27

    Abstract: 本申请提供了一种语音识别方法及装置,该方法基于第一合成音频、第二合成音频和真实音频训练得到的,所述第一合成音频为对表征所述真实音频的标注文本进行合成得到的,所述第二合成音频为对不同于所述标注文本的训练文本进行合成得到的,可以使端到端语音识别模型的训练数据更加丰富,保证端到端语音识别模型能够学习到缩小真实音频和合成音频之间的特征分布差异,提高端到端语音识别模型的精度。在此基础上,获取待识别音频,从待识别音频中提取声学特征,将声学特征输入预先训练的端到端语音识别模型,可以保证端到端语音识别模型获得的语音识别文本的准确度。

Patent Agency Ranking