一种上下文感知的多轮对话文本到SQL自动转换方法

    公开(公告)号:CN119248818A

    公开(公告)日:2025-01-03

    申请号:CN202411451870.0

    申请日:2024-10-17

    Abstract: 本发明涉及一种上下文感知的多轮对话文本到SQL自动转换方法,包括:获取用户的待检索多轮对话文本,从CoSQL数据集中随机采样对话示例,生成示例集合;将待检索多轮对话文本和示例集合均输入大型语言模型分析用户意图,获取相应的SQL语句;其中,大型语言模型利用训练集进行低秩适配微调,并结合上下文感知动态损失函数优化模型参数;训练集包括:历史用户意图和历史SQL语句;对SQL语句进行验证,验证通过后,查询SQL语句对应的信息,生成用户所需信息。本发明利用大语言模型进行意图解析和SQL建议生成,提高了多轮文本到SQL任务训练数据的质量和多样性。

    基于张量字典及全变分的高维图像去噪方法

    公开(公告)号:CN108399608B

    公开(公告)日:2021-10-15

    申请号:CN201810172326.0

    申请日:2018-03-01

    Abstract: 本发明公开一种基于张量字典及全变分的高维图像去噪方法,在高维图像处理研究的基础上,将张量字典学习结合全变分正则项,提出一种张量字典学习结合TV正则项的高维图像去噪模型,然后用交替迭代方法求解模型,得到迭代更新后重建的MSI图像。本发明的优点是将高维图像看成一个张量整体处理,不会损失图像的立体结构信息,同时也考虑了各波段之间的相关性,并且张量字典学习的方式提高了算法的精确度;在不失高维图像空间结构的前提下,利用高阶TV正则项,很好地保存了较完善的边缘信息,取得良好的重建效果。实验结果在主观视觉和客观评价指标两方面均取得较好的效果,能够保留较多的纹理信息和轮廓信息。

    一种基于BERT微调模型的评论目标情感分析

    公开(公告)号:CN111950296A

    公开(公告)日:2020-11-17

    申请号:CN202010849958.3

    申请日:2020-08-21

    Abstract: 本发明公开了一种基于BERT微调模型的评论目标情感分析,包括BCR-CRF目标抽取模型和BCR-DA目标情感分类模型,BCR-DA目标情感分类模型分为在线课程评论情感分析、BCR-CRF目标抽取模型、BCR-DA目标情感分析模型和真实中文在线课程评论数据集上的实验结果;BCR-CRF目标抽取模型步骤为:第一步:基于大规模中文评论语料库进行域内无监督训练BERT预训练模型BCR;第二步:引入CRF层,对BCR模型中语义表征层的输出序列添加语法约束,保证预测标签间依赖关系的合理性,准确抽取课程评论文本中的评论目标;第三步:构建包含双注意力层的BCR-DA模型分类表达课程评论目标的情感极性。本发明能够准确分析在线课程评论中蕴含的目标情感对理解学习者情绪变化、提升课程质量具有重要意义。

    基于相似度保留堆叠自编码器的人脸姿态重建与识别方法

    公开(公告)号:CN107220594B

    公开(公告)日:2020-06-12

    申请号:CN201710316806.5

    申请日:2017-05-08

    Abstract: 本发明公开了一种基于相似度保留堆叠自编码器的人脸姿态重建与识别方法,其特征是,包括如下步骤:1)多角度人脸图像的姿态角度步进减小;2)目标姿态特征提取;3)构建相似度保留自编码器的总损失函数;4)堆叠相似度保留自编码器;5)训练并微调网络;6)重建与识别:将重建好的正脸图像和网络的最高隐含层特征分别使用线性判别分析法,即LDA法进行降维来提取具有判别性的人脸特征,并用最近邻分类器完成人脸识别。这种方法能够消除人脸图像的姿态角度偏转影响、能够提取到人脸对于多姿态变化更具鲁棒性的特征,且提取到的姿态特征能和原始正脸图像的特征相匹配,从而提高识别率。

    非局部立体匹配方法
    27.
    发明授权

    公开(公告)号:CN106504276B

    公开(公告)日:2019-02-19

    申请号:CN201610938472.0

    申请日:2016-10-25

    Abstract: 本发明公开了一种非局部立体匹配方法的组合匹配代价方法和视差联合填充方法,该方法使用基于最小生成树的代价聚合的非局部立体匹配方法,在预处理阶段使用基于改进的最小生成树的方法去除原始图像的噪音,增强纹理信息,获得增强图像。然后在匹配代价阶段不仅使用原始图像的信息,还使用增强图像的信息。这样即得到了图像的局部信息,也能获得全局信息,在后期的代价聚合起一定的作用。在最后的视差细化部分,针对视差不连续和误匹配问题,提出了联合权重填充方法。实验表明,与其他的非局部立体匹配方法相比,该方法的误匹配率低,对边缘区域,重复纹理和遮挡区域有很强的鲁棒性。实验结果证明了本发明方法的有效性。

    非局部立体匹配算法的组合匹配代价算法和视差联合填充算法

    公开(公告)号:CN106504276A

    公开(公告)日:2017-03-15

    申请号:CN201610938472.0

    申请日:2016-10-25

    Abstract: 本发明公开了一种非局部立体匹配算法的组合匹配代价算法和视差联合填充算法,该算法使用基于最小生成树的代价聚合的非局部立体匹配算法,在预处理阶段使用基于改进的最小生成树的算法去除原始图像的噪音,增强纹理信息,获得增强图像。然后在匹配代价阶段不仅使用原始图像的信息,还使用增强图像的信息。这样即得到了图像的局部信息,也能获得全局信息,在后期的代价聚合起一定的作用。在最后的视差细化部分,针对视差不连续和误匹配问题,提出了联合权重填充算法。实验表明,与其他的非局部立体匹配算法相比,该算法的误匹配率低,对边缘区域,重复纹理和遮挡区域有很强的鲁棒性。实验结果证明了本发明算法的有效性。

Patent Agency Ranking