-
公开(公告)号:CN113301352B
公开(公告)日:2023-09-01
申请号:CN202010108871.0
申请日:2020-02-21
Applicant: 微软技术许可有限责任公司
IPC: H04N21/2187 , H04N21/234 , H04N21/258 , H04N21/4402 , H04N21/45 , H04N21/472 , H04N21/4788 , H04N21/81
Abstract: 本公开提供了用于在视频播放期间进行自动聊天的方法和装置。可以获得用户侧信息。可以从所述视频中检测视频信息。可以至少基于所述用户侧信息和所述视频信息来确定响应。可以在会话中提供所述响应。
-
公开(公告)号:CN110998725B
公开(公告)日:2024-04-12
申请号:CN201880042016.5
申请日:2018-04-19
Applicant: 微软技术许可有限责任公司
Abstract: 本公开内容提供了用于在人机对话中生成响应的方法和装置。可以在所述对话中接收第一声音输入。可以从所述第一声音输入中提取第一音频属性,其中所述第一音频属性指示用户的第一状态。可以在所述对话中接收第二声音输入。可以从所述第二声音输入中提取第二音频属性,其中所述第二音频属性指示用户的第二状态。确定所述第二音频属性和所述第一音频属性之间的差,其中所述差指示所述用户从所述第一状态到所述第二状态的状态变化。至少基于所述状态变化来生成对所述第二声音输入的响应。
-
公开(公告)号:CN110998725A
公开(公告)日:2020-04-10
申请号:CN201880042016.5
申请日:2018-04-19
Applicant: 微软技术许可有限责任公司
Abstract: 本公开内容提供了用于在人机对话中生成响应的方法和装置。可以在所述对话中接收第一声音输入。可以从所述第一声音输入中提取第一音频属性,其中所述第一音频属性指示用户的第一状态。可以在所述对话中接收第二声音输入。可以从所述第二声音输入中提取第二音频属性,其中所述第二音频属性指示用户的第二状态。确定所述第二音频属性和所述第一音频属性之间的差,其中所述差指示所述用户从所述第一状态到所述第二状态的状态变化。至少基于所述状态变化来生成对所述第二声音输入的响应。
-
公开(公告)号:CN113301352A
公开(公告)日:2021-08-24
申请号:CN202010108871.0
申请日:2020-02-21
Applicant: 微软技术许可有限责任公司
IPC: H04N21/2187 , H04N21/234 , H04N21/258 , H04N21/4402 , H04N21/45 , H04N21/472 , H04N21/4788 , H04N21/81
Abstract: 本公开提供了用于在视频播放期间进行自动聊天的方法和装置。可以获得用户侧信息。可以从所述视频中检测视频信息。可以至少基于所述用户侧信息和所述视频信息来确定响应。可以在会话中提供所述响应。
-
公开(公告)号:CN111696559B
公开(公告)日:2024-01-16
申请号:CN201910199122.0
申请日:2019-03-15
Applicant: 微软技术许可有限责任公司
Abstract: 本公开内容提供了一种用于提供情绪管理辅助的方法。可以接收声音流。可以从所述声音流中检测用户与至少一个对话方之间的语音对话。对话方的身份可以至少根据语音对话中对话方的语音来识别。在语音对话中用户的至少一个语音片段的情绪状态可以被确定出。可以生成与所述语音对话相对应的情绪记录,其中所述情绪记录至少包括所述对话方的身份、所述语音对话的至少一部分内容、以及所述用户的至少一个语音片段的情绪状态。
-
公开(公告)号:CN111696559A
公开(公告)日:2020-09-22
申请号:CN201910199122.0
申请日:2019-03-15
Applicant: 微软技术许可有限责任公司
Abstract: 本公开内容提供了一种用于提供情绪管理辅助的方法。可以接收声音流。可以从所述声音流中检测用户与至少一个对话方之间的语音对话。对话方的身份可以至少根据语音对话中对话方的语音来识别。在语音对话中用户的至少一个语音片段的情绪状态可以被确定出。可以生成与所述语音对话相对应的情绪记录,其中所述情绪记录至少包括所述对话方的身份、所述语音对话的至少一部分内容、以及所述用户的至少一个语音片段的情绪状态。
-
-
-
-
-