-
公开(公告)号:CN113837638A
公开(公告)日:2021-12-24
申请号:CN202111153611.6
申请日:2021-09-29
Applicant: 支付宝(杭州)信息技术有限公司
IPC: G06Q10/06 , G06Q30/00 , G06F40/295
Abstract: 本说明书实施例提供了一种话术确定方法、装置及设备,所述方法包括:获取目标用户针对触发执行的目标业务而输入的信息,并基于所述输入的信息对触发执行所述目标业务的意图进行识别,得到所述目标用户触发执行所述目标业务的用户意图;获取风险聚合中与所述用户意图匹配的用户行为所对应的目标风险聚合,所述风险聚合为对执行所述目标业务对应的目标风险数据进行风险聚合处理得到的包含一个或多个风险的聚合;将所述目标风险聚合输入预先训练的预设话术推荐模型,得到与所述目标风险聚合匹配的目标话术;基于所述目标话术,与所述目标用户进行交互,并基于交互结果,确定是否执行所述目标业务。
-
公开(公告)号:CN116127305A
公开(公告)日:2023-05-16
申请号:CN202211659316.2
申请日:2022-12-22
Applicant: 支付宝(杭州)信息技术有限公司
IPC: G06F18/214 , G06F16/332
Abstract: 本说明书提供了一种模型训练的方法、装置、存储介质及电子设备。在本说明书提供的模型训练方法中,获取目标对话;从目标对话中选择出现次数不小于指定次数的词汇,作为候选词汇;将候选词汇输入意图识别模型中,确定意图识别模型输出的候选词汇的意图识别结果;将意图识别结果为未识别出意图的候选词汇,作为目标词汇;将目标词汇作为训练样本,确定目标词汇的实际意图作为训练样本对应的标注;将目标词汇输入意图识别模型中,确定意图识别模型的输出结果;以输出结果与标注之前的差异最小为优化目标,对意图识别模型进行训练。
-
公开(公告)号:CN115033676A
公开(公告)日:2022-09-09
申请号:CN202210713723.0
申请日:2022-06-22
Applicant: 支付宝(杭州)信息技术有限公司
IPC: G06F16/332 , G06F16/33 , G06K9/62 , G06Q10/06
Abstract: 本说明书公开了一种意图识别模型训练及用户意图识别方法及装置,先确定包含多轮对话的历史对话数据作为训练样本,通过第一意图识别模型确定每个训练样本各轮对话的用户意图,并基于用户执行的与该训练样本对应的业务确定反馈意图,然后根据该训练样本的用户意图以及反馈意图确定第一风险识别结果,并通过第二意图识别模型确定该训练样本的各预测意图以及第二风险识别结果,最后以各训练样本第一风险识别结果与第二风险识别结果之间的差异最小为优化目标对第二意图识别模型进行训练。通过结合反馈意图以及由第一意图识别模型确定的用户意图,得到准确的风险识别结果,以对第二意图识别模型进行训练,提高了第二意图识别模型的风险识别能力。
-
公开(公告)号:CN114880472A
公开(公告)日:2022-08-09
申请号:CN202210461027.5
申请日:2022-04-28
Applicant: 支付宝(杭州)信息技术有限公司
IPC: G06F16/35 , G06F16/33 , G06F40/30 , G06F40/211 , G06K9/62
Abstract: 本说明书实施例提供了一种数据处理方法、装置及设备,所述方法包括:获取目标用户对目标话术的反馈信息,并获取所述目标话术对应的目标关键词,所述目标话术用于在与所述目标用户的交互过程中,获取所述目标用户针对目标业务的反馈信息;基于所述目标话术、所述目标关键词、所述反馈信息以及预先训练的分类模型,确定所述反馈信息对应的意图类型,所述预先训练的分类模型用于根据所述目标关键词、所述目标话术、所述反馈信息,以及预先学习的句式知识,确定所述反馈信息对应的意图类型;基于所述目标话术和所述反馈信息对应的意图类型,确定所述目标业务是否存在风险。
-
公开(公告)号:CN113672709B
公开(公告)日:2024-03-29
申请号:CN202110886944.3
申请日:2021-08-03
Applicant: 支付宝(杭州)信息技术有限公司
IPC: G06F16/332 , G06F21/31 , G06F40/211 , G06F40/35 , G06F16/27 , G06N3/0442 , G06N3/09
Abstract: 本说明书实施例提供了一种数据处理方法、装置及设备,包括:接收针对目标业务的第一数据处理请求,其中,第一数据处理请求中携带有终端设备的地址信息,第一数据处理请求为对用户输入的针对目标业务的待验证信息进行验证的处理请求;向终端设备发送第一提示信息,以使用户基于第一提示信息输入与目标业务对应的待验证信息;接收终端设备发送的待验证信息,采用预先训练的预设验证模型对待验证信息进行验证,并基于验证结果执行目标业务,预先训练的预设验证模型为基于样本验证信息所对应的信息内容权重进行有监督的训练得到的。
-
公开(公告)号:CN113220852B
公开(公告)日:2023-04-25
申请号:CN202110490492.7
申请日:2021-05-06
Applicant: 支付宝(杭州)信息技术有限公司
IPC: G06F16/332 , G06F16/33
Abstract: 本说明书一个实施例提了一种人机对话方法、装置、设备和存储介质,其中方法包括:获取人机对话过程中用户的会话数据和人机对话的场景数据,根据预先训练的待追问对象标注模型,在用户的会话数据中标注待追问对象,根据待追问对象和人机对话的场景数据,生成会话数据的回复数据,向用户推送该回复数据,以进行人机对话。
-
公开(公告)号:CN115859975A
公开(公告)日:2023-03-28
申请号:CN202310104834.6
申请日:2023-02-07
Applicant: 支付宝(杭州)信息技术有限公司
IPC: G06F40/289 , G10L15/02 , G10L15/26
Abstract: 本说明书实施例提供了一种数据处理方法、装置及设备,其中,该方法包括:获取目标数据对应的第一分词结果,所述目标数据为人机交互过程中生成的数据;基于所述第一分词结果中每个分词包括的多个字符,确定所述每个分词对应的信息值,所述分词对应的信息值用于表征所述每个分词包括的多个字符之间的关联强度;基于所述每个分词对应的信息值和所述分词之间的音标关联关系,对所述第一分词结果进行修正处理,得到第二分词结果;基于所述第二分词结果,对所述目标数据进行风险检测处理。
-
公开(公告)号:CN115129878B
公开(公告)日:2022-12-27
申请号:CN202211052703.X
申请日:2022-08-31
Applicant: 支付宝(杭州)信息技术有限公司
IPC: G06F16/35 , G06F16/332
Abstract: 在本说明书提供的对话业务执行方法、装置、存储介质及电子设备中,可获取用户在上一回合输入的回复内容,并确定上一回合向用户发送的话术的话术种类;根据回复内容,在预先构建的意图库中确定用户的意图;将确定出的意图与话术种类的组合确定为当前逻辑组合;在预先构建的规则库中确定与当前逻辑组合匹配的规则;根据所述规则,确定当前回合要向用户发送的话术的话术种类;根据话术种类在预先构建的话术库中确定向用户发送的话术,并将确定出的话术发送给所述用户。在采用本方法执行对话业务时,可通过规则的形式确定出下一回合向用户发送的话术,当需要修改对话逻辑时,只需要添加或修改特定的规则便可完成修改,极大地降低了更新维护的门槛。
-
公开(公告)号:CN115455166A
公开(公告)日:2022-12-09
申请号:CN202211168324.7
申请日:2022-09-23
Applicant: 支付宝(杭州)信息技术有限公司
IPC: G06F16/332 , G06F40/35 , G06N3/04 , G06N3/08
Abstract: 本说明书公开了一种智能对话系统异常检测的方法、装置、介质及设备,通过获取历史会话数据,确定历史会话数据中的交互信息,作为训练样本,并根据每轮交互中用户是否存在异常行为,确定训练样本的标注。然后,将各轮交互的训练样本输入待训练的检测模型,确定待训练的检测模型输出的检测结果,以各训练样本的检测结果与各训练样本的标注之间的差异最小为优化目标,训练待训练的检测模型。当接收交互检测请求时,基于交互检测请求中携带的待检测会话数据,确定各轮交互信息,将各轮交互信息输入到训练得到的检测模型,确定各轮交互的检测结果,并展示。该方法可以更准确的定位智能对话系统的异常,提高对智能对话系统优化精确度,节约了成本。
-
公开(公告)号:CN115269809A
公开(公告)日:2022-11-01
申请号:CN202211135890.8
申请日:2022-09-19
Applicant: 支付宝(杭州)信息技术有限公司
IPC: G06F16/332 , A63F13/87 , G06K9/62
Abstract: 本说明书实施例描述了意图识别模型的训练方法和装置及意图识别方法和装置。根据实施例的方法,可以在模型训练的前几轮弱化对特定问题的训练,然后利用前几轮训练的意图识别模型可以找出需要进行区分的回答所对应的意图。进一步通过对这些意图的标签进行重置后再训练意图识别模型,能够使得训练得到的意图识别模型对特定问题的回答也具有较好的识别效果,从而达到提高意图识别准确性的目的。
-
-
-
-
-
-
-
-
-