-
公开(公告)号:CN111598616B
公开(公告)日:2023-08-01
申请号:CN202010391847.2
申请日:2020-05-11
Applicant: 百度在线网络技术(北京)有限公司
IPC: G06Q30/0273 , G06Q30/0241 , G06F16/9535
Abstract: 本申请实施例公开了一种对象集合筛选的实现方法、装置、设备以及存储介质,涉及大数据处理和人工智能技术领域。具体实现方案为:获取初始对象集合;其中,所述初始对象集合中包括至少两个对象;基于强化学习的序列决策算法中的筛选策略,对所述初始对象集合执行对象筛选操作,以形成目标对象集合;其中,所述初始对象集合和/或所述对象筛选操作的数量为两个以上,以形成至少两个所述目标对象集合;获取将各所述目标对象集合在运行环境中实施而获得的收益;根据各所述目标对象集合之间的收益差异,对形成各所述目标对象集合的筛选策略进行更新。本申请实施例解决了集合筛选过程决策的通用性问题。
-
-
公开(公告)号:CN106649605B
公开(公告)日:2020-09-29
申请号:CN201611065432.6
申请日:2016-11-28
Applicant: 百度在线网络技术(北京)有限公司
IPC: G06F40/216 , G06F40/289 , G06F16/31 , G06F40/30 , G06N3/04
Abstract: 本发明提供了一种推广关键词的触发方法及装置,其中推广关键词的触发方法包括:获取用户输入的query;将所述获取的query对应的输入序列输入到翻译模型,得到输出序列;利用所述输出序列确定所述query触发的推广关键词;其中,所述翻译模型是采用如下方式预先训练得到的:从用户点击行为日志中获取query及其对应的被点击标题作为训练数据;利用训练数据中的query得到输入序列,利用query对应的被点击标题得到目标序列,训练神经网络模型,得到翻译模型。本发明能够实现真正从语义上确定与query相匹配的推广关键词,提升推广关键词触发的准确率和召回率。
-
公开(公告)号:CN104867490A
公开(公告)日:2015-08-26
申请号:CN201510324535.9
申请日:2015-06-12
Applicant: 百度在线网络技术(北京)有限公司
Abstract: 本发明提出一种韵律结构预测方法和装置,该韵律结构预测方法包括:对无标注数据进行学习获得词语的词向量;对所述词语的词向量进行聚类,获得所述词向量的聚类特征;将所述词向量的聚类特征加入从标注数据提取的特征集合中;对加入所述聚类特征的特征集合进行训练获得带有聚类特征的韵律结构预测模型;通过所述韵律结构预测模型进行韵律结构预测。本发明在训练获得韵律结构预测模型时,引入了词向量的聚类特征,提升了韵律结构预测模型的性能,进而可以提升语音合成的效果。
-
公开(公告)号:CN111429889B
公开(公告)日:2023-04-28
申请号:CN201910016861.1
申请日:2019-01-08
Applicant: 百度在线网络技术(北京)有限公司
Abstract: 本公开提供了一种基于截断注意力的实时语音识别的方法、装置、设备以及计算机可读存储介质。方法包括获得用于截断输入的语音信号的特征序列的截断信息,然后基于截断信息来将特征序列截断成多个子序列。方法还包括针对每个子序列,通过注意力机制来获得实时识别结果。本公开的实施例通过在传统的注意力模型中引入根据语音信号而确定的截断信息,能够指导注意力模型针对每个截断分别进行注意力建模,不仅能够实现实时的语音识别,而且能够保证很高的识别准确率。此外,可选地,本公开的一些实施例所提出的双头结构能够保证实时语音识别过程的计算量较小,本公开的一些实施例所提出的多级注意力结构能够进一步提升语音识别的准确率。
-
公开(公告)号:CN111429889A
公开(公告)日:2020-07-17
申请号:CN201910016861.1
申请日:2019-01-08
Applicant: 百度在线网络技术(北京)有限公司
Abstract: 本公开提供了一种基于截断注意力的实时语音识别的方法、装置、设备以及计算机可读存储介质。方法包括获得用于截断输入的语音信号的特征序列的截断信息,然后基于截断信息来将特征序列截断成多个子序列。方法还包括针对每个子序列,通过注意力机制来获得实时识别结果。本公开的实施例通过在传统的注意力模型中引入根据语音信号而确定的截断信息,能够指导注意力模型针对每个截断分别进行注意力建模,不仅能够实现实时的语音识别,而且能够保证很高的识别准确率。此外,可选地,本公开的一些实施例所提出的双头结构能够保证实时语音识别过程的计算量较小,本公开的一些实施例所提出的多级注意力结构能够进一步提升语音识别的准确率。
-
公开(公告)号:CN105244020B
公开(公告)日:2017-03-22
申请号:CN201510616919.8
申请日:2015-09-24
Applicant: 百度在线网络技术(北京)有限公司
Abstract: 本发明公开了一种用于语音合成的韵律层级模型训练方法、使用该韵律层级模型进行语音合成的方法及装置,其中该训练方法包括:对海量无标注语料数据进行训练获得单字的字向量;根据字向量以及韵律标注数据获取训练数据对应的文本特征及标注;以及基于深度神经网络和双向LSTM神经网络,根据训练数据的文本特征、标注对韵律层级模型进行训练。该方法基于字粒度的字典较传统使用的词粒度的词典相比,有效地减小了条目规模,同时减小了模型及资源文件对于计算资源和存储空间的要求,在提高韵律预测模型性能的同时,保证了在嵌入式智能设备中的可用性。
-
公开(公告)号:CN104867490B
公开(公告)日:2017-03-22
申请号:CN201510324535.9
申请日:2015-06-12
Applicant: 百度在线网络技术(北京)有限公司
Abstract: 本发明提出一种韵律结构预测方法和装置,该韵律结构预测方法包括:对无标注数据进行学习获得词语的词向量;对所述词语的词向量进行聚类,获得所述词向量的聚类特征;将所述词向量的聚类特征加入从标注数据提取的特征集合中;对加入所述聚类特征的特征集合进行训练获得带有聚类特征的韵律结构预测模型;通过所述韵律结构预测模型进行韵律结构预测。本发明在训练获得韵律结构预测模型时,引入了词向量的聚类特征,提升了韵律结构预测模型的性能,进而可以提升语音合成的效果。
-
公开(公告)号:CN105590623A
公开(公告)日:2016-05-18
申请号:CN201610102345.7
申请日:2016-02-24
Applicant: 百度在线网络技术(北京)有限公司
IPC: G10L13/08 , G10L15/187 , G10L25/30
CPC classification number: G10L15/063 , G06F17/2217 , G06N3/04 , G06N3/0445 , G06N3/0454 , G06N3/08 , G10L13/00 , G10L15/02 , G10L15/16 , G10L2015/025 , G10L13/08 , G10L15/187 , G10L25/30
Abstract: 本申请提出一种基于人工智能的字母音素转换模型生成方法及装置,其中,该方法包括:在应用神经网络对训练数据中的每个单词进行字母音素转换的每次训练过程中,按照预设的节点比例对所述神经网络的隐层节点进行随机筛选,获取用于训练每个单词的保留节点;应用与所述保留节点对应的子神经网络训练对应的单词,更新所述子神经网络各保留节点的相关权重;最终对所有子神经网络各保留节点的相关权重进行均值处理,生成字母音素转换模型。通过本申请提供的基于人工智能的字母音素转换模型生成方法和装置,提高了字母音素转换模型的学习能力和泛化能力,从而避免了过拟合现象。
-
公开(公告)号:CN105244020A
公开(公告)日:2016-01-13
申请号:CN201510616919.8
申请日:2015-09-24
Applicant: 百度在线网络技术(北京)有限公司
Abstract: 本发明公开了一种用于语音合成的韵律层级模型训练方法、使用该韵律层级模型进行语音合成的方法及装置,其中该训练方法包括:对海量无标注语料数据进行训练获得单字的字向量;根据字向量以及韵律标注数据获取训练数据对应的文本特征及标注;以及基于深度神经网络和双向LSTM神经网络,根据训练数据的文本特征、标注对韵律层级模型进行训练。该方法基于字粒度的字典较传统使用的词粒度的词典相比,有效地减小了条目规模,同时减小了模型及资源文件对于计算资源和存储空间的要求,在提高韵律预测模型性能的同时,保证了在嵌入式智能设备中的可用性。
-
-
-
-
-
-
-
-
-