-
公开(公告)号:CN118840174A
公开(公告)日:2024-10-25
申请号:CN202410798082.2
申请日:2024-06-20
Applicant: 读者出版集团有限公司 , 兰州大学
IPC: G06Q30/0601 , G06F16/9535 , G06F16/36 , G06N20/00
Abstract: 本发明公开了一种基于知识图谱的商品推荐方法及系统,包括对用户和商品的交互关系进行分解,利用注意力权重从知识图谱中的关系建模出用户商品交互的虚拟关系;基于所述虚拟关系聚合高阶信息,对每一层学习的结果进行加权组合,确定不同的重要性,获得用户嵌入和商品嵌入;通过计算所述虚拟关系之间的余弦相似度确定相关性,通过相关性确定权重,将多跳邻居与目标商品嵌入相结合,获得邻居实体的影响增强嵌入;基于所述用户嵌入、所述商品嵌入和所述邻居实体的影响增强嵌入,获得用户对商品的点击概率,完成商品推荐。本发明提升推荐的精确度和相关性。
-
公开(公告)号:CN118740916A
公开(公告)日:2024-10-01
申请号:CN202410817082.2
申请日:2024-06-24
Applicant: 读者出版集团有限公司 , 兰州大学
IPC: H04L67/55 , H04L67/306 , G06N3/042 , G06N3/0455 , G06N3/08
Abstract: 本发明公开了一种基于注意力机制和图神经网络的客户引流方法及系统,方法包括:获取用户与项目信息,将用户与项目信息输入基于高阶邻域信息的图神经网络冷启动推荐模型中进行处理,获得输出结果,基于所述输出结果实现对冷客户的引流;其中,将目标注意力机制与异构图神经网络推荐模型相结合构成所述基于高阶邻域信息的图神经网络冷启动推荐模型。本发明利用用户之间的社会关系,将冷用户信任的用户交互项目使用注意力机制计算,获取图结构中可能无法捕捉的高阶邻域信息来完成对冷用户数据的预热,更好地完成对冷用户的引流推荐。
-
公开(公告)号:CN118673160A
公开(公告)日:2024-09-20
申请号:CN202410835269.5
申请日:2024-06-26
Applicant: 甘肃亿恩科技有限公司 , 兰州大学
IPC: G06F16/36 , G06F16/332 , G06F16/35 , G06Q50/20 , G06N3/0455 , G06N3/082 , G06N5/022
Abstract: 本发明公开了一种基于PMKT知识追踪模型的预测方法,包括:基于编码器+解码器架构、编码器架构或解码器架构构建知识追踪预训练模型,所述知识追踪预训练模型为基于预训练及参数微调的知识追踪模型,其中所述知识追踪模型包括依次连接的交互映射层、多头注意力层、前馈网络层及输出层;获取学生的交互序列,并通过知识追踪模型对所述回答问题序列进行识别预测,生成回答问题信息的正确性结果。
-
公开(公告)号:CN118643153A
公开(公告)日:2024-09-13
申请号:CN202410785871.2
申请日:2024-06-18
Applicant: 兰州大学
IPC: G06F16/35 , G06F16/332 , G06F16/33 , G06F40/30 , G06F18/2415 , G06F18/213 , G06N3/047 , G06N3/0442 , G06N3/049 , G06N3/084 , G06N3/096
Abstract: 本发明提供了一种基于迁移学习的长文本分类方法,属于文本自动分类技术领域,包括以下步骤:基于覆盖分割和层级位置编码对长文本序列进行编码,获得多文本编码;将所述多文本编码输入到并行的预训练语言模型中,获得多文本特征;将所述多文本特征输入到层级注意力模型中,获得长文本特征;基于长文本特征通过全连接网络层对文本进行分类,获得长文本分类结果。本发明可以有效进行文本分类,并提高长文本分类的准确率。
-
公开(公告)号:CN118587506A
公开(公告)日:2024-09-03
申请号:CN202410791450.0
申请日:2024-06-19
Applicant: 兰州大学 , 中科奇驭科技(天津)有限公司
IPC: G06V10/764 , G06V10/82 , G06N3/0464 , G06V20/13
Abstract: 本发明公开了一种基于深度学习的大气云分类方法,包括:获取大气云卫星观测图像,对所述大气云卫星观测图像进行预处理,获取预处理后的卫星观测图像;将所述预处理后的卫星观测图像输入网络1,网络1采用VGG‑19编码网络及ASPP网络;随后经过解码网络,并且使用SE Block获得网络1的输出;将网络1中的输入和输出进行逐元素相乘,获得网络2的输入;将所述网络2的输入图像输入改进后的Unet网络,获得大气云分类图像。本发明利用DC‑CNN网络模型的机制对卫星数据进行分类,达到提高分类准确度的目的。
-
公开(公告)号:CN114896520B
公开(公告)日:2024-08-02
申请号:CN202210652212.2
申请日:2022-06-10
Applicant: 兰州大学 , 甘肃日报报业集团有限责任公司
IPC: G06F16/9536 , G06Q50/00 , G06F18/22
Abstract: 本发明提供了一种基于元社区一致性的集成社区检测方法及系统,包括:对原网络进行社区划分,基于不同社区之间的相似性,构建一个多部图;对所述多部图进行重划分,获取元社区;基于网络节点在所述元社区中的隶属关系,构建元共识网络;基于所述元共识网络获取所述原网络的社区结构,完成集成社区检测。相较于现有的集成社区检测方法本发明构建元共识图的过程中使用了一种基于三元闭包的采样方法,能够优先减少计算代价,考虑了局部拓扑特性的社区相似性度量,使得检测结果更为准确。
-
公开(公告)号:CN111814495B
公开(公告)日:2024-03-22
申请号:CN202010666199.7
申请日:2020-07-10
Applicant: 兰州大学
IPC: G06F40/58 , G06F40/126
Abstract: 本发明涉及一种基于SVG的电路图到盲文转换方法及系统,所述方法至少包括:基于SVG文件生成电路图中元器件的基本属性;基于所述基本属性生成元器件类,并判断是否包含并联电路;若包含并联电路,则基于所述元器件类进行并联电路处理以生成并联电路类,其中,所述元器件类和并联电路类为至少描述元器件和并联电路的类型、ASCII码、空间位置关系的有序集合;基于所述元器件类和/或并联电路类进行主电路处理以生成盲文ASCII码电路图。
-
公开(公告)号:CN116702711A
公开(公告)日:2023-09-05
申请号:CN202310659698.7
申请日:2023-06-06
Applicant: 兰州大学 , 甘肃日报报业集团有限责任公司
IPC: G06F40/151 , G06F40/157 , G06F40/242 , G06N3/0455 , G06N3/08
Abstract: 本发明公开了BedsTransformer汉盲转换方法及系统,方法包括以下步骤:S1、采集语料数据,对所述语料数据进行预处理,得到语料数据库;S2、构建汉盲转换模型,并基于所述语料数据集对所述汉盲转换模型进行训练优化,得到BedsTransformer模型;S3、基于所述BedsTransformer模型进行汉盲转换。本发明将源语言预训练之后输入到编码器解码器部分,进行特征融合,使得源语言上下文的语意信息进一步提取,提高了汉盲转换的准确率。
-
公开(公告)号:CN116662483A
公开(公告)日:2023-08-29
申请号:CN202310613432.9
申请日:2023-05-29
Applicant: 兰州大学
Abstract: 本发明公开了一种知识追踪模型的技能标签生成方法、装置以及设备,包括以下步骤:构建知识追踪模型,将交互习题及解答结果输入到知识追踪模型中;基于技能标签矩阵,以矩阵投影的方式分别获取交互习题及解答结果对应的综合编码,并分别进行单调自注意力机制处理,获得交互习题及解答结果对应的交叉编码,进而获得学生知识状态的评估结果向量;基于学生知识状态的评估结果向量和当前交互习题的综合编码,获得解答结果正确与否的预测结果;获得预测结果相对于真实解答结果的损失,对技能标签矩阵和知识追踪模型进行训练;对训练后的技能标签矩阵进行二值化处理,存储技能标注结果。本发明实现了知识追踪习题所关联技能的高性能、全自动标注。
-
公开(公告)号:CN115496215A
公开(公告)日:2022-12-20
申请号:CN202211136641.0
申请日:2022-09-19
Applicant: 兰州大学 , 支付宝(杭州)信息技术有限公司
IPC: G06N5/02 , G06F16/901
Abstract: 本说明书实施例公开了一种基于权重衰减的注意力图的生成方法、装置以及设备。通过确定所述知识点序列所对应的特征矩阵,所述特征矩阵包括键矩阵K、查询矩阵Q和值矩阵V;获取第i个知识点在所述查询矩阵Q中的特征值Qi,以及,获取第j个知识点在所述键矩阵K中的特征值Kj;确定所述第i个知识点与所述第j个知识点的时间差Δ(ti,tj),确定包含所述时间差和衰减参数θ的衰减函数γ(ti,tj,θ),其中,所述θ为可学习的衰减参数;根据所述特征值Qi、特征值Kj、所述衰减函数γ(ti,tj,θ)和所述值矩阵V生成注意力图,从而通过考虑学习者遗忘行为的时间间隔因素来强化最近相关问题和其他问题的表现信息。
-
-
-
-
-
-
-
-
-