-
公开(公告)号:CN116168770A
公开(公告)日:2023-05-26
申请号:CN202310126020.2
申请日:2023-02-15
Applicant: 百度在线网络技术(北京)有限公司
Inventor: 王雅晴
Abstract: 本公开提供了一种分子数据的处理方法、装置、电子设备以及存储介质,涉及计算机技术领域,尤其涉及数据处理、深度学习、人工智能等技术领域。具体实现方案为:从源域和目标域中进行采集,得到分子数据集;从分子数据集中确定源域包含的第一原始分子特征和目标域中包含的第二原始分子特征;基于第一原始分子特征和第二原始分子特征之间的关联关系,确定模型参数;基于模型参数进行训练,生成分子性质预测模型。
-
公开(公告)号:CN114821801A
公开(公告)日:2022-07-29
申请号:CN202210511763.7
申请日:2022-05-10
Applicant: 百度在线网络技术(北京)有限公司
Abstract: 本公开提供了一种动作识别方法,涉及人工智能技术领域,尤其涉及深度学习技术领域和音频数据处理技术领域。具体实现方案为:根据目标对象的动作,确定目标对象的当前输入信息;根据当前输入信息,确定与目标对象对应的处理参数,其中,处理参数包括缩放参数;以及根据处理参数和当前输入信息的特征信息,从与目标对象对应的多个动作类别中,识别与当前输入信息相匹配的动作类别。本公开还提供了一种深度学习模型的训练方法、装置、电子设备和存储介质。
-
公开(公告)号:CN116319976A
公开(公告)日:2023-06-23
申请号:CN202310193729.4
申请日:2023-02-24
Applicant: 百度在线网络技术(北京)有限公司
IPC: H04L67/55 , G06F16/9535 , G06N3/0464 , G06N3/0499 , G06N3/08 , H04L67/1396
Abstract: 本公开提出了一种推送内容的获取方法、装置、电子设备和介质,涉及深度学习、自然语言处理等人工智能,方法包括获取样本冷启动用户账号的样本调整函数以及设置有样本调整函数的样本推送内容评分预测模型;获取待推送的目标冷启动用户账号的目标个性化调整函数,并基于目标个性化调整函数更新样本推送内容评分预测模型中的样本调整函数,得到目标冷启动用户账号的个性化推送内容评分预测模型;获取候选推送内容并基于个性化推送内容评分预测模型,从候选推送内容中确定推送给目标冷启动用户账号的目标推送内容。本公开中,优化了推送内容评分预测模型的学习效果,提高了推送内容与冷启动用户账号的的适配程度,优化了用户账号的使用体验。
-
公开(公告)号:CN114841274A
公开(公告)日:2022-08-02
申请号:CN202210516125.4
申请日:2022-05-12
Applicant: 百度在线网络技术(北京)有限公司
IPC: G06K9/62 , G06F16/35 , G06F16/31 , G06F40/279
Abstract: 本公开提供了一种语言模型的训练方法、装置、电子设备和存储介质,涉及人工智能技术领域,尤其涉及深度学习、自然语言处理技术领域。具体实现方案为:获取第一模板文本,第一模板文本为自然语言构成的文本;获取第一训练样本组,并基于第一训练样本组生成第二模板文本,第二模板文本为非自然语言构成的文本;基于第一模板文本、第二模板文本和第一训练样本组,生成第二训练样本组;基于第二训练样本组对预训练语言模型进行训练,得到训练后的目标语言模型。由此,可综合考虑第一模板文本、第二模板文本和第一训练样本组生成预训练语言模型的第二训练样本组,适用于第一训练样本组不足的应用场景,有助于提升预训练语言模型的训练性能。
-
公开(公告)号:CN116127075A
公开(公告)日:2023-05-16
申请号:CN202310180559.6
申请日:2023-02-15
Applicant: 百度在线网络技术(北京)有限公司
IPC: G06F16/35 , G06F40/279 , G06F40/216
Abstract: 本公开提供了一种文本分类方法、装置、设备以及存储介质,涉及人工智能技术领域,尤其涉及自然语言处理、深度学习等领域。具体实现方案为:获取待分类的目标文本,根据目标文本中的目标词在词图中的图嵌入特征,编码得到目标文本的表征。进而根据目标文本与至少一个样本文本之间的表征相似度,确定文本图中目标文本与至少一个样本文本之间的连接关系,并据此提取目标文本的图嵌入特征。根据目标文本在文本图中的图嵌入特征,对目标文本进行分类。基于目标词的图嵌入特征,对目标文本进行编码,使得作为外部语料的词图,参与到目标文本编码中,丰富了目标文本的表征,相应提高了据此进行的分类准确性。
-
公开(公告)号:CN116166961B
公开(公告)日:2024-02-13
申请号:CN202310148539.0
申请日:2023-02-16
Applicant: 百度在线网络技术(北京)有限公司
IPC: G06F18/214 , G06F18/213 , G06N3/04 , G06N3/08
Abstract: 本公开提供了一种超网络模型的训练方法,涉及人工智能和网络结构搜索技术领域。具体实现方案为:将训练样本的初始特征输入适应性网络,生成训练样本的适应性特征;将测试样本的初始特征输入预测网络,生成测试样本的隐藏特征,测试样本具有标签,标签表示测试用户数据与测试对象数据之间的测试交互数据;使用调整网络基于适应性特征调整隐藏特征;根据调整后的隐藏特征确定超网络模型的输出结果,输出结果表示测试用户数据与测试对象数据之间的预测交互数据;根据测试交互数据和预测交互数据,确定超网络模型的损失;根据损失更新调整网络的结构参数。本公开还提供了一种深度学习模型的训练方法、信息推荐方法、装置、电子设备和存储介质。
-
公开(公告)号:CN116166961A
公开(公告)日:2023-05-26
申请号:CN202310148539.0
申请日:2023-02-16
Applicant: 百度在线网络技术(北京)有限公司
IPC: G06F18/214 , G06F18/213 , G06N3/04 , G06N3/08
Abstract: 本公开提供了一种超网络模型的训练方法,涉及人工智能和网络结构搜索技术领域。具体实现方案为:将训练样本的初始特征输入适应性网络,生成训练样本的适应性特征;将测试样本的初始特征输入预测网络,生成测试样本的隐藏特征,测试样本具有标签,标签表示测试用户数据与测试对象数据之间的测试交互数据;使用调整网络基于适应性特征调整隐藏特征;根据调整后的隐藏特征确定超网络模型的输出结果,输出结果表示测试用户数据与测试对象数据之间的预测交互数据;根据测试交互数据和预测交互数据,确定超网络模型的损失;根据损失更新调整网络的结构参数。本公开还提供了一种深度学习模型的训练方法、信息推荐方法、装置、电子设备和存储介质。
-
公开(公告)号:CN114841274B
公开(公告)日:2023-02-07
申请号:CN202210516125.4
申请日:2022-05-12
Applicant: 百度在线网络技术(北京)有限公司
IPC: G06F18/214 , G06F16/35 , G06F16/31 , G06F40/279
Abstract: 本公开提供了一种语言模型的训练方法、装置、电子设备和存储介质,涉及人工智能技术领域,尤其涉及深度学习、自然语言处理技术领域。具体实现方案为:获取第一模板文本,第一模板文本为自然语言构成的文本;获取第一训练样本组,并基于第一训练样本组生成第二模板文本,第二模板文本为非自然语言构成的文本;基于第一模板文本、第二模板文本和第一训练样本组,生成第二训练样本组;基于第二训练样本组对预训练语言模型进行训练,得到训练后的目标语言模型。由此,可综合考虑第一模板文本、第二模板文本和第一训练样本组生成预训练语言模型的第二训练样本组,适用于第一训练样本组不足的应用场景,有助于提升预训练语言模型的训练性能。
-
公开(公告)号:CN114821801B
公开(公告)日:2023-04-07
申请号:CN202210511763.7
申请日:2022-05-10
Applicant: 百度在线网络技术(北京)有限公司
Abstract: 本公开提供了一种动作识别方法,涉及人工智能技术领域,尤其涉及深度学习技术领域和音频数据处理技术领域。具体实现方案为:根据目标对象的动作,确定目标对象的当前输入信息;根据当前输入信息,确定与目标对象对应的处理参数,其中,处理参数包括缩放参数;以及根据处理参数和当前输入信息的特征信息,从与目标对象对应的多个动作类别中,识别与当前输入信息相匹配的动作类别。本公开还提供了一种深度学习模型的训练方法、装置、电子设备和存储介质。
-
公开(公告)号:CN114817476A
公开(公告)日:2022-07-29
申请号:CN202210516131.X
申请日:2022-05-12
Applicant: 百度在线网络技术(北京)有限公司
Abstract: 本公开提供了一种语言模型的训练方法、装置、电子设备和存储介质,涉及人工智能技术领域,尤其涉及深度学习、自然语言处理技术领域。具体实现方案为:获取训练样本组,基于训练样本组中的训练样本构建样本关系图,样本关系图中的一个节点对应一个训练样本,边用于表示训练样本之间的样本相似度;基于训练样本组和样本关系图,获取预训练语言模型在节点维度的第一损失函数和在边维度的第二损失函数,并基于第一损失函数和第二损失函数,得到总损失函数;基于总损失函数对预训练语言模型的模型参数进行更新,得到目标语言模型,可综合考虑到训练样本和训练样本之间的样本相似度来获取总损失函数,有助于提升预训练语言模型的训练性能。
-
-
-
-
-
-
-
-
-