基于言语行为理论的用户交互意图识别方法及系统

    公开(公告)号:CN107153672A

    公开(公告)日:2017-09-12

    申请号:CN201710171926.0

    申请日:2017-03-22

    Abstract: 本发明涉及一种基于言语行为理论的用户交互意图识别方法及系统,所述用户交互意图识别方法包括:基于外部知识源构建行为标记语词典;根据所述行为标记语词典,自动标注用户在社交媒体平台上输入的在线文本的意图;利用自动标注语料训练基于特征的分类器对所述在线文本的意图进行分类识别,确定用户的交互意图类别。本发明基于言语行为理论的用户交互意图识别方法通过基于外部知识源构建对应不同意图类别的行为标记语词典,并基于行为标记语词典自动标注扩充语料和基于特征分类识别,能够有效识别社交媒体中的用户交互意图,识别准确度高,可用于商务智能、社情舆情、决策评估等领域的意图分析与识别,应用范围广。

    一种基于深度学习的全天候视频监控方法

    公开(公告)号:CN104320617A

    公开(公告)日:2015-01-28

    申请号:CN201410557880.2

    申请日:2014-10-20

    Abstract: 本发明公开了一种基于深度学习的全天候视频监控方法,该方法包括以下步骤:实时采集视频流,基于得到的视频流通过线采样获得多幅原始采样图样本,以及速度采样图样本;对于得到的速度采样图样本进行时空矫正;基于原始采样图和速度采样图,离线训练得到深度学习模型,所述深度学习模型包括分类模型和统计模型;利用得到的深度学习模型对于实时视频流进行人群状态分析。本发明对于不同环境、光照强度、天气情况以及摄像头角度均具有良好的适应性;对于大流量人群涌出等人群拥挤环境,可以保证较高的准确率;计算量小,可以满足实时视频处理的要求,能够广泛地应用于对于公交、地铁和广场等滞留人群密集的公共场所的监控和管理。

    基于视觉大数据驱动的群体性行为分析的视频监控方法

    公开(公告)号:CN103679215A

    公开(公告)日:2014-03-26

    申请号:CN201310746795.6

    申请日:2013-12-30

    Abstract: 一种计算机实现的视频监控方法,包括步骤:接收由摄像机捕获的视频数据;根据接收到的视频数据建立群体性行为模型;估计所述群体性行为模型的参数,获得场景中存在的多种人群行为;使用得到的群体性行为模型获得不同人群的行为特征集;对得到的行为特征集进行转换,并使用转换的行为特征集来针对每种人群行为得到统计的人数值。根据本发明的方法,摄像头角度设置具有普遍适用性,可以用于开放出入口人数统计;并且计算量小,可以满足实时视频处理的要求。

    神经机器翻译模型的训练方法、翻译方法及装置

    公开(公告)号:CN115345181A

    公开(公告)日:2022-11-15

    申请号:CN202210786892.7

    申请日:2022-07-04

    Abstract: 本发明提供一种神经机器翻译模型的训练方法、翻译方法及装置,所述训练方法包括:构建神经机器翻译模型;将双语平行句对中的源语言句子和目标语言句子,以及知识图谱中每个三元组中的头实体和尾实体进行细粒度切分,得到标准源语言句子序列、标准目标语言句子序列以及知识图谱中每个三元组中的标准头实体‑关系序列和标准尾实体序列;将其输入编解码模块中预测得到目标语言句子序列以及尾实体序列;基于标准目标语言句子序列和预测的目标语言句子序列之间的交叉熵,以及知识图谱中每个三元组中的标准尾实体序列与预测的尾实体序列之间的交叉熵,共同训练该模型。本发明能够有效融合细粒度知识推断,提升神经机器翻译对于实体的翻译质量。

Patent Agency Ranking