-
公开(公告)号:CN110489761A
公开(公告)日:2019-11-22
申请号:CN201810463138.3
申请日:2018-05-15
Applicant: 科大讯飞股份有限公司
Abstract: 本申请公开了一种篇章级文本翻译方法及装置,该方法包括:将待翻译的篇章级文本中的每一文本单位,分别作为待翻译文本,然后,从篇章级文本中获取待翻译文本的关联文本,并根据该关联文本对待翻译文本进行翻译。可见,在对待翻译文本进行翻译时,不但考虑了待翻译文本的当前语境,还考虑了待翻译文本的关联文本内容,能够提高待翻译文本的翻译结果的准确性,因而提升了用户体验。
-
公开(公告)号:CN110210043A
公开(公告)日:2019-09-06
申请号:CN201910514220.9
申请日:2019-06-14
Applicant: 科大讯飞股份有限公司
Abstract: 本申请提供一种文本翻译方法、装置、电子设备及可读存储介质,方法包括:接收待翻译的源语言文本;将所述源语言文本输入到翻译模型中,由所述翻译模型根据多个双语短语对的信息,对所述源语言文本进行编码和解码,得到所述源语言文本对应的目标语言文本。该方法使得在翻译过程中源语言文本的语义信息得以保留,从而极大提升翻译效果。
-
公开(公告)号:CN110148413A
公开(公告)日:2019-08-20
申请号:CN201910422699.3
申请日:2019-05-21
Applicant: 科大讯飞股份有限公司
Abstract: 本申请实施例公开了一种语音评测方法及相关装置,方法包括:获取第一测评模式下作为评测标准的第一语音,以及获取待评测的第二语音;处理第一语音得到第一文本,以及处理第二语音得到第二文本;获取第一测评模式对应的第一文本检测策略;按照第一文本检测策略处理第一文本和第二文本,得到针对第二语音的检测结果。本申请有利于提高设备进行语音评测的灵活性和全面性。
-
公开(公告)号:CN109584886A
公开(公告)日:2019-04-05
申请号:CN201811475745.8
申请日:2018-12-04
Applicant: 科大讯飞股份有限公司
Abstract: 本申请提供了一种基于声纹识别的身份认证方法、装置、设备及存储介质,方法包括:获取目标标识的关联标识信息,目标标识的关联标识信息至少包括:在预设时间段内,与目标标识直接或间接产生联系的标识组成的目标标识集合;基于目标标识的关联标识信息,确定目标标识对应的标识度量矢量;基于目标标识对应的声纹矢量和标识度量矢量,确定目标标识对应的用户身份信息。本申请在基于目标标识对应的声纹矢量确定目标标识对应的用户身份信息时,用能够表征目标标识的关联标识信息的标识度量矢量进行辅助,能够较准确确定出目标标识对应的用户身份信息,用户体验较好。
-
公开(公告)号:CN109582977A
公开(公告)日:2019-04-05
申请号:CN201811384437.4
申请日:2018-11-20
Applicant: 科大讯飞股份有限公司
IPC: G06F17/28
Abstract: 本申请公开了一种交互式文本翻译方法及装置,该方法包括:先获取待修正的目标文本,该目标文本是对源文本进行翻译后的文本,然后检测用户是否对该目标文本进行了人工修正,若是,则在人工修正后的文本的基础上进行自动修正,得到修正后的翻译结果。可见,本申请在人工修正文本的基础上由机器进行自动修正,当将该修正结果作为源文本的翻译结果时,与目标文本相比,可以提升源文本的翻译结果的翻译质量,此外,在人工修正的提示下进行自动修正,可以有效提升修正效率。
-
公开(公告)号:CN109408833A
公开(公告)日:2019-03-01
申请号:CN201811276866.X
申请日:2018-10-30
Applicant: 科大讯飞股份有限公司
Abstract: 本申请公开了一种翻译方法、装置、设备及可读存储介质,方法包括:在获取到待翻译的源语言文本时,进一步根据当前的翻译场景对源语言文本进行断句,得到的断句后的源语言文本更加符合当前的翻译场景,显然,相比于现有翻译方法,本申请对得到的源语言文本增加了断句优化过程,即考虑了当前翻译场景对源语言文本进行重新断句,使得源语言文本的断句方式更加优化,进而基于此对断句后的源语言文本进行翻译,得到的目标语言文本的质量也会更高。
-
公开(公告)号:CN109378003A
公开(公告)日:2019-02-22
申请号:CN201811302005.4
申请日:2018-11-02
Applicant: 科大讯飞股份有限公司
Abstract: 本发明实施例提供了一种声纹模型训练方法和系统,该方法包括:选取多个用户标识下的语音作为训练语音;根据训练语音确定初始声纹模型;利用初始声纹模型对每个用户标识下的训练语音进行聚类,得到排序后的训练语音;将排序后每个用户标识下的训练语音划分成第一子集、第二子集和第三子集;将所有用户标识下的第一子集合并为第一训练子集,第二子集合并为第二训练子集,以及第三子集合并为第三训练子集;按照从易到难的学习顺序依次对第一训练子集、第二训练子集和第三训练子集进行学习,得到最终的声纹模型。本发明实施例有效提高了声纹模型的鲁棒性,使声纹系统的性能更加优越。
-
公开(公告)号:CN108304389A
公开(公告)日:2018-07-20
申请号:CN201711287987.X
申请日:2017-12-07
Applicant: 科大讯飞股份有限公司
Abstract: 本发明实施例提供一种交互式语音翻译方法及装置,属于语言处理技术领域。该方法包括:若第一识别文本的识别置信度大于第一预设阈值且第一目标语言文本的翻译置信度不大于第二预设阈值,则对第一目标语言文本进行翻译,得到第二识别文本;若第一识别文本与第二识别文本之间语义不等价,则提示用户第一识别文本对应的翻译难易程度;若检测到用户输入关键文本,则对关键文本进行语义解析,以得到关键名词及关键名词的类型,并基于关键名词的类型对关键名词进行翻译,得到第一翻译结果,对其它内容进行翻译,得到第二翻译结果,将第一翻译结果与第二翻译结果合并得到第二目标语言文本。由于提供了一种新的语音翻译交互模式,以使得翻译结果更加准确。
-
公开(公告)号:CN107622773A
公开(公告)日:2018-01-23
申请号:CN201710803397.1
申请日:2017-09-08
Applicant: 科大讯飞股份有限公司
Abstract: 本发明公开了一种音频特征提取方法及装置、电子设备,所述方法包括如下步骤:步骤一,获取待处理音频数据;步骤二,根据所述待处理音频数据的频谱能量幅度,确定待处理音频数据的原始候选极值点;步骤三,基于候选极值点之间的影响系数和/或基于候选极值点的密度和/或基于候选极值点之间的差分计算结果对每帧音频数据的原始候选极值点进行筛选,得到所述待处理音频数据的极值点列表;步骤四,根据所述待处理音频数据的极值点列表提取音频数据的指纹特征,通过本发明可提高提取的音频特征的抗噪性,使提取的音频特征能更准确的描述音频数据。
-
公开(公告)号:CN103559289B
公开(公告)日:2017-01-18
申请号:CN201310554667.1
申请日:2013-11-08
Applicant: 科大讯飞股份有限公司
IPC: G06F17/30
Abstract: 本发明公开了一种语种无关的关键词检索方法及系统,该方法包括:构建关键词模型和吸收模型;利用训练数据对所述关键词模型进行优化;根据优化后的关键词模型和所述吸收模型构建解码网络;对接收到的待检测语音信号,利用所述解码网络进行关键词检索;输出检索结果。利用本发明,可以在关键词训练数据样本有限的情况下提高关键词检出率。
-
-
-
-
-
-
-
-
-