-
公开(公告)号:CN115033594B
公开(公告)日:2022-11-18
申请号:CN202210953656.X
申请日:2022-08-10
Applicant: 之江实验室
IPC: G06F16/242 , G06F16/2453 , G06F40/216 , G06F40/289
Abstract: 本发明提供了一种给出置信度的垂直领域检索方法和装置,方法包括在初次启动检索引擎时,生成用来将预存信息生成查询过程中所需要的第一词权重表、惩罚词权重表;对待查语句集进行处理,生成待查语句的满匹配得分表和倒排索引表;用户输入查询语句,求得该查询语句与待查语句集的匹配置信度并进行降序排列。本发明充分考虑未涵盖在特定语料库中的词汇,使用协调因子重构其词权重,并设计合理的计算公式给出令人信服的匹配置信度,从而支撑下游任务的顺利进行。
-
公开(公告)号:CN116312480B
公开(公告)日:2025-05-23
申请号:CN202310126931.5
申请日:2023-02-10
Applicant: 之江实验室
Abstract: 本说明书公开了一种语音识别方法、装置、设备及可读存储介质,响应于流式语音识别请求,根据预设的时长,将连续接收的所述待识别音频数据,划分为待识别语音块,将各待识别语音块依次输入预训练的语音识别模型,通过特征提取子网得到第一语音特征,将该待识别语音块的第一语音特征和指定语音块的第一语音特征输入到特征编码子网,通过注意力编码层得到第一注意力得分和第二注意力得分,进而确定出该待识别语音块的第二语音特征,将第二语音特征输入解码器,确定该待识别语音块的预测文本。可见,通过特征编码子网中的注意力编码层确定第一注意力得分和第二注意力得分的方式,能够有效利用声学上下文的信息,提高文本预测的准确性。
-
公开(公告)号:CN117409466B
公开(公告)日:2024-06-14
申请号:CN202311458408.9
申请日:2023-11-02
Applicant: 之江实验室
IPC: G06V40/16 , G06V10/774 , G06V10/74 , G06V10/75
Abstract: 在本说明书提供的一种基于多标签控制的三维动态表情生成方法及装置中,根据响应于生成请求确定的表情类别信息和表情强度信息,得到嵌入向量,以及将已生成的表情帧作为位移序列,用于得到预测向量。根据得到的嵌入向量和预测向量,通过特征转换模型的特征转换层,确定第一特征向量,以及将第一特征向量输入表情生成模型,生成当前表情帧。继续生成下一表情帧,直到生成的表情帧数量满足预设的帧数为止,进而根据生成的各表情帧,生成动态表情。从上述方法可以看出,通过参考表情类别信息、表情强度信息和位移序列,并利用特征转换模型和表情生成模型,逐一生成各表情帧,使得生成的各表情帧之间的衔接更自然,提高了动态表情生成的可控性。
-
公开(公告)号:CN115512687B
公开(公告)日:2023-02-17
申请号:CN202211390934.1
申请日:2022-11-08
Applicant: 之江实验室
Abstract: 本说明书公开了一种语音断句方法、装置、存储介质及电子设备,本说明书实施例中实时获取到目标用户的音频数据,先对音频数据进行语音检测,得到语音片段和非语音片段。然后,根据语音片段,确定出目标用户对应的语言表达习惯参数,并基于确定出的语言表达习惯参数,确定出对目标用户发出的音频数据进行语音断句的静默时长。最终,基于确定出的静默时长以及非语音片段的持续时长,对目标用户后续的音频数据进行语音断句。在此方法中,在对话场景下,可以根据不同用户的语言表达习惯,为不同的用户确定出不同的静默时长,这样,可以提高对话场景下语音断句的准确性,并提高下游针对用户的语音进行答复的准确性。
-
公开(公告)号:CN115512687A
公开(公告)日:2022-12-23
申请号:CN202211390934.1
申请日:2022-11-08
Applicant: 之江实验室
Abstract: 本说明书公开了一种语音断句方法、装置、存储介质及电子设备,本说明书实施例中实时获取到目标用户的音频数据,先对音频数据进行语音检测,得到语音片段和非语音片段。然后,根据语音片段,确定出目标用户对应的语言表达习惯参数,并基于确定出的语言表达习惯参数,确定出对目标用户发出的音频数据进行语音断句的静默时长。最终,基于确定出的静默时长以及非语音片段的持续时长,对目标用户后续的音频数据进行语音断句。在此方法中,在对话场景下,可以根据不同用户的语言表达习惯,为不同的用户确定出不同的静默时长,这样,可以提高对话场景下语音断句的准确性,并提高下游针对用户的语音进行答复的准确性。
-
公开(公告)号:CN115409217A
公开(公告)日:2022-11-29
申请号:CN202211352910.7
申请日:2022-11-01
Applicant: 之江实验室
Abstract: 本发明公开一种基于多专家混合网络的多任务预测性维护方法,包括:步骤S1:将设备的传感器数据处理成传感器特征张量,输入多专家网络模块,计算得到相应的专家子网络张量;步骤S2:将传感器特征张量输入多任务门控网络,得到多任务门控网络输出向量;步骤S3:对于每个任务,结合对应多任务门控网络输出向量,对多专家网络模块中各个专家子网络的输出作加权求和,计算得到每个任务的编码器张量;步骤S4:将计算得到的编码器张量输入任务相关的解码器网络,再通过多个任务联合优化,同时计算并输出预测性维护场景各个子任务的目标值。本发明解决了错误传递问题,可以缓解跷跷板效应,减小预测性维护任务的计算成本,提升预测效率。
-
公开(公告)号:CN114186687B
公开(公告)日:2022-05-17
申请号:CN202210144108.2
申请日:2022-02-17
Applicant: 之江实验室
Abstract: 本发明公开了一种面向神经网络模型计算的中间表示方法和装置,包括如下步骤:S1:解析输入的模型文件以获取神经网络的拓扑结构信息;S2:构建逻辑计算图;S21:推导逻辑计算图中每个算子的物理布局信息;S22:推导逻辑计算图中每个算子的元属性;S23:推导逻辑计算图中每个算子的输入输出逻辑张量的描述信息;S3:构建物理计算图;S31:生成物理计算图;等步骤,本发明公开的基于元属性的用于神经网络模型计算的中间表示从算子层面原生地支持数据并行和模型并行以及流水并行。本发明公开的面向神经网络模型计算的中间表示方法和装置以计算表达式为基本单元,以张量作为整个计算表达式组成的计算图中流动的数据,以构图的方式实现神经网络模型的计算过程。
-
公开(公告)号:CN117743599A
公开(公告)日:2024-03-22
申请号:CN202311814908.1
申请日:2023-12-26
Applicant: 之江实验室
IPC: G06F16/36 , G06F16/332 , G06F40/30 , G06N5/022
Abstract: 本说明书公开了一种模型检测方法、装置、介质以及电子设备,包括:获取目标模型的待检测语句,基于预设的知识图谱,确定待检测语句中包含的至少部分实体词所对应的实体关系,并生成用于描述实体关系的补充语句,针对待检测语句对应的每种异常类别,确定该种异常类别对应的提问语句。将每种异常类别对应的提问语句、待检测语句以及补充语句输入到预设的判决模型中,以针对每种异常类别,得到目标模型是否具有该异常类别的问题的判决结果和判据文本。确定待检测语句对应的综合提问语句,将综合提问语句、待检测语句、补充语句、每种异常类别对应的判决结果和判据文本输入到判决模型中,得到最终判决结果,根据最终判决结果,检测目标模型。
-
公开(公告)号:CN117409466A
公开(公告)日:2024-01-16
申请号:CN202311458408.9
申请日:2023-11-02
Applicant: 之江实验室
IPC: G06V40/16 , G06V10/774 , G06V10/74 , G06V10/75
Abstract: 在本说明书提供的一种基于多标签控制的三维动态表情生成方法及装置中,根据响应于生成请求确定的表情类别信息和表情强度信息,得到嵌入向量,以及将已生成的表情帧作为位移序列,用于得到预测向量。根据得到的嵌入向量和预测向量,通过特征转换模型的特征转换层,确定第一特征向量,以及将第一特征向量输入表情生成模型,生成当前表情帧。继续生成下一表情帧,直到生成的表情帧数量满足预设的帧数为止,进而根据生成的各表情帧,生成动态表情。从上述方法可以看出,通过参考表情类别信息、表情强度信息和位移序列,并利用特征转换模型和表情生成模型,逐一生成各表情帧,使得生成的各表情帧之间的衔接更自然,提高了动态表情生成的可控性。
-
公开(公告)号:CN116384515B
公开(公告)日:2023-09-01
申请号:CN202310663586.9
申请日:2023-06-06
Applicant: 之江实验室
IPC: G06N20/00 , G06F40/295
Abstract: 本说明书公开了一种模型训练的方法、装置、存储介质及电子设备。本说明书实施例在文本识别模型训练的过程中,所用的训练文本中包含真实实体信息的标签,并且是通过识别该训练文本中的实体名称词的位置来对该文本识别模型进行训练的,因此通过这种方式最终所训练出的文本识别模型,在进行文本识别时,不仅能准确划分出该文本中实体名称词所在的位置,并且还能准确的识别出该实体名称词所表征的实体,从而在使用最终所训练出的文本识别模型所得到的向量表示来完成下游业务时,能够保证下游业务的准确执行。
-
-
-
-
-
-
-
-
-