-
公开(公告)号:CN110175158A
公开(公告)日:2019-08-27
申请号:CN201910431788.4
申请日:2019-05-23
Applicant: 湖南大学
IPC: G06F16/18 , G06F16/2458 , G06F17/22 , G06F17/24
Abstract: 本发明公开了一种基于向量化的日志模板提取方法,其结合了离线日志模板提取和在线日志模板提取两个过程,离线日志模板提取先将所有的日志记录向量化后映射到一个高维向量空间,然后对所有向量进行聚类以实现对日志记录的分类,最后从每个类中提取出其中所有日志记录的最长公共单词子序列并用通配符替代不同的部分以作为该类的模板,在线日志模板提取基于离线提取的结果,对随着时间推移新产生的日志记录逐条进行处理,计算其向量化后的结果与已知各模板向量化后的结果的距离。本发明能够解决现有日志模板提取方法存在的不适合处理大量日志、普适性差、复杂性比较高的技术问题。
-
公开(公告)号:CN119918676A
公开(公告)日:2025-05-02
申请号:CN202510108830.4
申请日:2025-01-23
Applicant: 湖南大学
IPC: G06N5/04 , G06N3/063 , G06N3/0464
Abstract: 本发明公开了一种面向可重构AI芯片的神经网络推理部署方法,通过使用深度学习框架对应的ONNX库将训练好的模型导出为ONNX格式,对ONNX格式模型进行解析以获取网络拓扑结构、算子信息和总控信息,根据算子信息对每个算子进行划分得到划分结果;结合网络拓扑结构对算子划分结果进行组装拼接获取任务信息等步骤,充分利用可重构AI芯片的硬件资源;最终将总控信息和所有算子的任务信息组织成最终的可执行文件,高效完成神经网络模型在可重构AI芯片上的推理部署。本发明能够解决现有开发特定AI芯片架构编译器开发门槛高,效率低的技术问题,以及现有自动代码生成方法可能无法充分利用芯片性能的技术问题。
-
公开(公告)号:CN119692404A
公开(公告)日:2025-03-25
申请号:CN202411863894.7
申请日:2024-12-18
Applicant: 湖南大学
Abstract: 本发明公开了一种面向类脑芯片的脉冲神经网络编译方法,其通过在TVM中扩展脉冲神经网络Relay算子,接入并绑定至硬件算子库,自动化实现从脉冲神经网络模型到类脑芯片适配的中间表示转换和优化,结合面向脉冲神经网络模型的算子融合优化、面向类脑芯片的数据布局转换等优化方法,充分利用硬件算子库的高性能实现;最终基于TVM基础设施、LLVM编译器生成部署文件包,高效完成脉冲神经网络模型在类脑芯片上的编译与部署。本发明能够解决现有基于DSL的神经网络编译方法和基于硬件intrinsic函数或算子API的神经网络编译方法存在的学习成本高、开发效率低的技术问题。
-
公开(公告)号:CN119271209A
公开(公告)日:2025-01-07
申请号:CN202411388005.6
申请日:2024-10-08
Applicant: 湖南大学
Abstract: 本发明公开了一种AI芯片的PE编译方法,包括:获取源代码,对获取的源代码进行预处理,以得到预处理后的源代码,对预处理后的源代码先后进行词法分析与语法分析,以得到该源代码对应的语法树,并利用语义分析器对该语法树进行处理,以生成符号表,根据语法树与符号表、并使用低级虚拟机LLVM编译器内部的代码转换模块生成预处理后的源代码对应的中间表示,根据AI芯片的PE指令集规范,将预处理后的源代码对应的中间表示中的所有操作和所有数据结构中的每一个转换为相应的PE指令,通过多个PE对每一个PE指令进行并行优化,以得到优化后的PE指令的执行结果。本发明能够解决传统编译器由于未针对AI芯片进行PE优化,因此无法充分发挥性能的技术问题。
-
公开(公告)号:CN118132078A
公开(公告)日:2024-06-04
申请号:CN202410008994.5
申请日:2024-01-04
Applicant: 湖南大学
Abstract: 本发明公开了一种基于编译优化的程序效率优化方法,首先接收了需要优化的程序文件和候选编译器集合,通过遍历程序中的循环并且判断当前循环所处的函数中循环的个数是否大于等于2来判断提取当前循环或者当前循环所处的函数,并且为提取出来的循环和函数添加计时功能。在完成程序中循环或者函数的提取工作之后,依次使用候选编译器集合中的每个编译器对被提取了循环或者函数的程序文件,以及若干提取出来的循环和函数文件进行编译优化得到可执行文件,通过执行针对于候选编译器集合中的每个编译器的可执行文件得到提取出来的若干循环或者函数的执行时间,并且为提取出来的每个循环或者函数选择最优的编译器。
-
公开(公告)号:CN114328921B
公开(公告)日:2024-04-09
申请号:CN202111613756.X
申请日:2021-12-27
Applicant: 湖南大学
IPC: G06F16/35 , G06F40/216 , G06F40/289 , G06F18/241 , G06F18/22 , G06N3/0464 , G06N3/0455 , G06N3/0442
Abstract: 本发明公开了一种基于分布校准的小样本实体关系抽取方法,其假设特征向量中的每个维度都遵循高斯分布,并观察到相似类通常具有相似的特征表示均值和方差。因此,高斯分布的平均值和方差可以在类似的类别之间传递。同时,当有足够的样本时,可以更准确地估计统计数据。因此,重用来自多个类的分布统计量,并根据它们的类相似性可以更好地校准少数类的分布统计量,根据校准后的分布统计量可以生成更多的样本。本发明的有益效果:使提取的特征更丰富;可以减少分散偏度,能够让特征向量分布更接近高斯分布;大大减少了由于数据过少引起的过拟合问题,通过数据增强实现了关系抽取准确度的提高;能够极大地提高模型的泛化能力。
-
公开(公告)号:CN110782009B
公开(公告)日:2023-09-08
申请号:CN201910986292.3
申请日:2019-10-17
Applicant: 湖南大学
IPC: G06N3/0464 , G06N3/063
Abstract: 本发明公开了一种基于ARMv8体系的计算内核优化方法。本发明针对寄存器使用情况,使用了所有32个寄存器,能够更好更完整地调用硬件资源,节省卷积过程中进行矩阵计算时的矩阵分块时间,从而提升整体的计算效率,帮助我们得到更高的工程效率应用在卷积神经网络中的卷积过程里,能有效加速其在ARMv8体系结构的运算时间。
-
公开(公告)号:CN115809092B
公开(公告)日:2023-04-28
申请号:CN202310101112.5
申请日:2023-02-13
Applicant: 湖南大学
Abstract: 本申请公开了一种基于MT3000异构处理器的深度学习计算库实现方法,属于深度学习技术领域。该方法针对天河新一代超级计算机异构处理器MT3000原型机,使用engine引擎‑stream数据流‑memory内存对象‑primitives原语四层设计框架,实现了一套完整的深度学习计算库,并针对该处理器的体系结构对卷积、池化、激活、归一化等深度学习常用算子进行计算优化,卷积算子相较于纯CPU版本实现最高加速比为7.56。
-
公开(公告)号:CN115934951A
公开(公告)日:2023-04-07
申请号:CN202310119700.1
申请日:2023-02-16
Applicant: 湖南大学
IPC: G06F16/35 , G06F40/216 , G06F40/284 , G06F40/30 , G06N3/0442
Abstract: 本申请公开了一种网络热点话题用户情绪预测方法,包括如下步骤:采集用户在网络热点话题下的评论形成数据文本,将多个数据文本组成语料库,为语料库中的数据文本标注标签;将数据文本分词后形成词序列,利用向量空间模型将词序列中的词汇转换为词向量,采用余弦相似度计算词序列中任意两个词汇的相似度;采用TF‑IDF算法计算词序列中所有词向量的权重,提取权重排序前五的词向量构成输入向量;将输入向量送入双向长短期记忆网络模型进行训练,训练的过程采用多头注意力机制关注词汇在数据文本中的权重分布;针对任意用户在网络热点话题下的评论,采用训练好的模型输出用户情绪的预测分类结果。本申请实现了对网络热点话题下用户情绪的预测。
-
公开(公告)号:CN115761336A
公开(公告)日:2023-03-07
申请号:CN202211444423.3
申请日:2022-11-18
Applicant: 湖南大学
IPC: G06V10/764 , G06V10/82 , G06V10/70 , G06V10/774 , G06V10/776 , G06N3/045 , G06N3/0464 , G06N3/092
Abstract: 本申请公开了一种基于深度强化学习的医疗图片分类方法、系统及电子设备,将医疗图片的二元不平衡分类问题表示为顺序决策问题,包含两个模型,一是基于DDQN的不平衡分类模型(DDQNbic),另一个是基于Dueling DQN的不平衡分类模型(D_DQNbic),用于图片分类的系统在选定分类模型后对训练数据进行训练,用户可以根据自己的需求进行选择,也可以通过不同的模型进行分类并用于结果对比;当用户选择某个模型时,它将基于深度强化学习技术对类别不平衡的图片进行处理,最终以更高的准确度对图片进行成功分类。同时,本模型直接对类别不平衡的医疗图片进行分类,不进行平衡样本等额外操作,节省分类时间,降低了运行成本。
-
-
-
-
-
-
-
-
-