一种平滑自回归基数估计方法

    公开(公告)号:CN115328972B

    公开(公告)日:2023-05-23

    申请号:CN202211024149.4

    申请日:2022-08-24

    Abstract: 本发明涉及数据库系统查询优化的基数估计技术领域,具体地说,涉及一种平滑自回归基数估计方法,包括:S1、将数据库表格数据编码后得到编码数据x;S2、对x进行平滑,期间复制x来引入不同程度的噪声得到平滑数据xrs和微弱平滑数据xcls,拼接所有平滑数据后得到输入xin;S3、将xin喂给平滑自回归模型,并进行训练;S4、通过训练好的模型进行基数估计。本发明能够达到目前最先进的基数估计准确度,能较出色地完成基数估计任务。

    一种中国学生英语朗读质量分析方法

    公开(公告)号:CN111653292B

    公开(公告)日:2023-03-31

    申请号:CN202010573319.9

    申请日:2020-06-22

    Abstract: 本发明提供一种中国学生英语朗读质量分析方法,该方法是一个由顺序连接的英语朗读发音预处理模块、英语朗读发音错误检测模块、英语朗读发音质量分析模块、英语朗读发音质量输出模块组成的分析模型。一段英语朗读语音通过该分析模型和分析方法处理后,最后能够得到这段英语朗读语音的质量分析结果。本发明分析方法解决了中国学生英语朗读发音的发音质量自动分析问题,其分析结果比传统的中国学生英语朗读发音的发音质量分析方法的分析结果更好。

    一种融合编码和多版本数据的海量空间对象存储方法

    公开(公告)号:CN106991149B

    公开(公告)日:2020-11-10

    申请号:CN201710192554.X

    申请日:2017-03-28

    Abstract: 本发明公开一种融合编码和多版本数据的海量空间对象存储方法,采用“低精度网格编码,高精度空间对象编码”将多维空间数据转换到一维空间,然后采用“字典序定位数据块,低冗余度数据查询”策略来实现查询过程涉及到的冗余数据修剪,有效提升了范围查询性能。在编码精度为8个Base‑32字符时,一个网格单元的覆盖面积约为725m2,查询半径在1000m时,查询响应时间不超过1秒,能有效满足诸如智慧旅游中基于游客位置的旅游资源推荐等数据查询需求。

    一种电子商务平台用户重复购买行为预测方法

    公开(公告)号:CN110956497A

    公开(公告)日:2020-04-03

    申请号:CN201911181002.4

    申请日:2019-11-27

    Abstract: 本发明公开了一种电子商务平台用户重复购买行为预测方法,包括:获取用户历史购买行为数据;采用分段下采样方法进行样本均衡处理;构建用户特征、商户特征、用户与商户交互特征和隐藏特征;将样本均衡的用户历史购买行为数据输入至双层注意力BiGRU个体模型中,将用户特征、商户特征、用户与商户交互特征和隐藏特征输入至深度Catboost个体模型和DeepGBM个体模型中;对各个体模型分别进行用户重复购买行为预测训练;通过Vote-Stacking模型,对训练后的各个体模型进行融合,并采用多数投票决策机制输出最终预测结果。本发明融合深度Catboost个体模型、双层注意力BiGRU个体模型和DeepGBM个体模型,对用户历史购买数据中离散的购买记录数值和行为序列特征进行建模,提高了预测结果的准确性。

    一种基于依赖增强的异构图卷积网络的情感分析方法

    公开(公告)号:CN119621982A

    公开(公告)日:2025-03-14

    申请号:CN202411694239.3

    申请日:2024-11-25

    Inventor: 陈妙玲 周娅

    Abstract: 本发明公开了一种基于依赖增强的异构图卷积网络的情感分析方法,所述方法包括对待分析文本进行预处理;用双向长短记忆网络Bi‑LSTM对分析文本的上下文和方面的词向量嵌入表示进行特征提取,将单词嵌入矩阵输入Bi‑LSTM,得到句子的隐藏层状态向量;依存句法图卷积网络进一步提取句子中的依存句法特征,成分句法图卷积网络进一步提取成分句法特征;在输入句子被两个GCN处理后,连接两个不同的图卷积网络的输出,以获得更全面的特征表示;在交互注意力层,模型学习方面词和其它词之间的相关性,更全面地理解输入数据中的关系和模式;将交互注意力层通过输入softmax归一化层获得分类输出。这种方法能提升对句子极值判断的准确率。

    基于Bi-LSTM的TextRank中文摘要自动生成方法

    公开(公告)号:CN116775855A

    公开(公告)日:2023-09-19

    申请号:CN202310463558.2

    申请日:2023-04-26

    Inventor: 程珠鸿 周娅

    Abstract: 本发明涉及计算机技术领域,具体涉及一种基于Bi‑LSTM的TextRank中文摘要自动生成方法,以Word2vec模型转换的词向量为输入信息,利用Bi‑LSTM模型进一步处理,将输出的信息作为文本各句子的句向量,并用于计算句子间的相似度。通过以句子间相似度为边权重,以各句子为节点构建TextRank图结构,计算出各句子的TextRank值作为各句子权值,并根据权值大小进行排序,最后抽取候选摘要句组成最终的摘要。本发明通过Bi‑LSTM融合Word2vec+TextRank自动摘要模型,提出新的融合模型W2v‑BiL‑TR,提升了摘要抽取结果的质量。

    基于自编码器的学习型文本哈希方法

    公开(公告)号:CN113449849B

    公开(公告)日:2022-05-27

    申请号:CN202110724953.2

    申请日:2021-06-29

    Abstract: 本发明公开一种基于自编码器的学习型文本哈希方法,先利用真实采集的文本数据和/或程序生成的文本数据构建训练数据集;再构建5层的自编码器结构的哈希函数模型,并利用训练数据集对哈希函数模型进行训练;后将待哈希的文本数据输入到步骤3所训练好的哈希函数模型中,得到待哈希的文本数据的哈希值。本发明使用机器学习方法,构建学习型哈希函数模型来实现文本型数据的哈希,与传统哈希方法相比,有较低的哈希冲突率,与此同时,在哈希的运算时间上有较大改进,提高了文本哈希的效率,能够适应于大规模文本数据的哈希处理。

    基于自编码器的学习型文本哈希方法

    公开(公告)号:CN113449849A

    公开(公告)日:2021-09-28

    申请号:CN202110724953.2

    申请日:2021-06-29

    Abstract: 本发明公开一种基于自编码器的学习型文本哈希方法,先利用真实采集的文本数据和/或程序生成的文本数据构建训练数据集;再构建5层的自编码器结构的哈希函数模型,并利用训练数据集对哈希函数模型进行训练;后将待哈希的文本数据输入到步骤3所训练好的哈希函数模型中,得到待哈希的文本数据的哈希值。本发明使用机器学习方法,构建学习型哈希函数模型来实现文本型数据的哈希,与传统哈希方法相比,有较低的哈希冲突率,与此同时,在哈希的运算时间上有较大改进,提高了文本哈希的效率,能够适应于大规模文本数据的哈希处理。

Patent Agency Ranking