网络社交动态的情感分类方法、系统、设备和存储介质

    公开(公告)号:CN119293219B

    公开(公告)日:2025-03-18

    申请号:CN202411805809.1

    申请日:2024-12-10

    Abstract: 本申请涉及一种网络社交动态的情感分类方法、系统、设备和存储介质,通过对社交动态的文本进行预处理,得到预处理后的数据集;根据数据集构建包含词节点和社交动态节点的语义图;根据社交动态的话题属性,以及发布社交动态的用户的用户间关系,提取社交动态之间的关联信息,并根据社交动态之间的关联信息建立社交动态节点之间的连接关系,得到包含语义关系和社交关系的社交动态多层图;将社交动态多层图输入至集成模型进行处理,得到社交动态的情感分类结果;其中,集成模型由基于双曲学习的图卷积神经网络和大规模预训练语言模型构成;提升了社交动态的情感分类的准确度。

    一种重要性感知的深度学习数据缓存管理方法和系统

    公开(公告)号:CN114462590B

    公开(公告)日:2024-05-10

    申请号:CN202111520870.8

    申请日:2021-12-13

    Abstract: 本发明提供了一种重要性感知的深度学习数据缓存管理方法和系统,本发明将缓存分为两个区域分别存储划分的重要样本和不重要样本,同时设置重要性感知的缓存管理模块和动态打包模块分别应答数据请求并对缓存模块的两个缓存区域进行缓存管理,重要性感知的缓存管理模块把越重要的样本优先缓存在内存中,当缓存满的时候,重要性低的样本先逐出,可以提高缓存命中率。对不重要样本使用异步线程使用异步线程进行打包和缓存,同时当不重要的样本缓存缺失时,使用其他的不重要的样本进行替换。从而保证训练样本的多样性且不引入额外开销。与现有技术相比,本发明对模型训练的精度影响可以忽略不计,并且使DNN训练速度是原来的3倍。

    一种用于计算图编译的优化方法及装置

    公开(公告)号:CN115268936B

    公开(公告)日:2022-12-27

    申请号:CN202211177796.9

    申请日:2022-09-27

    Abstract: 本发明公开了一种用于计算图编译的优化方法及装置,包括以下步骤:步骤S1:将计算图转换为中间表示;步骤S2:分析依赖关系;步骤S3:构建工作栈;步骤S4:初始化为未激活状态;步骤S5:弹出栈顶节点元素,并更新当前轮迭代输入节点集合;步骤S6:将依赖所述步骤S5的栈顶节点的元素依次添加到栈顶位置,直到工作栈清空为止;步骤S7:采用位向量实现达到不动点状态的中间表示;步骤S8:为达到不动点状态的中间表示的节点包含的有效张量变量分配寄存器。本发明提供了一种解析所述中间表示节点动态地执行至不动点状态的方法,并且优化了为所述中间表示不动点状态下各节点所包含的张量变量分配空闲寄存器的实现方法,提升计算图在运行时的执行效率。

    一种异构感知的GPU资源分配与调度方法及系统

    公开(公告)号:CN113535387A

    公开(公告)日:2021-10-22

    申请号:CN202110699347.X

    申请日:2021-06-23

    Abstract: 本发明公开了一种异构感知的GPU资源分配与调度方法及系统,方法包括:S1:预分析出任务所需的性能指标;S2:任务提交后,将任务优先级设置为最高,并提交到高优先级的Q1等待队列中;S3:当可用的GPU资源发生变化后,触发调度,放置器根据GPU异构性和任务的性能指标,为任务分配GPU资源;S4:监控正在执行的任务,计算其优先级,根据优先级确定任务是否要让出GPU资源,将需要让出GPU资源的任务放入低优先级的Q2等待队列;S5:监控Q2等待队列中的任务等待时间是否超过饥饿阈值,如果超过,则该任务的优先级设为最高,并移入Q1等待队列;系统包括:调度器、放置器、探测器、高优先级和低优先级等待队列。

    一种加速分布式机器学习梯度汇聚的方法和装置

    公开(公告)号:CN112862111B

    公开(公告)日:2021-08-24

    申请号:CN202110450988.1

    申请日:2021-04-26

    Abstract: 本发明涉及分布式计算系统领域,具体涉及一种加速分布式机器学习梯度汇聚的方法和装置,该装置包括:包括梯度汇聚器和与梯度汇聚器连接的工作节点,所述工作节点用于提供梯度数据至梯度汇聚器和接收梯度汇聚器的返还数据;所述梯度汇聚器,包括:输入接口和输入队列模块、接收仲裁模块、解析查找模块、输出队列模块、聚合模块、存储器、输出接口模块和配置接口模块,其中的聚合模块包括:控制模块、解析模块、梯度数据块信息表、梯度数据块缓存器、计算模块和网络组包输出模块。本发明支持大型机器学习模型的训练,存储器可以存储大量梯度数据,同时所需要的缓存空间可以很小,降低了系统缓存的要求,提高了系统整体性能。

    一种基于混合存储的存内计算的方法与装置

    公开(公告)号:CN112015673B

    公开(公告)日:2021-03-16

    申请号:CN202011137494.X

    申请日:2020-10-22

    Abstract: 本发明涉及计算机内存计算领域,具体涉及一种基于混合存储的存内计算方法与装置,该方法包括:首先通过混合存储区将数据进行混合存储,然后利用数据转存区通过字线驱动器和控制器对某一指定行的数据进行移位操作,最后基于混合存储和移位操作进行数据的乘法计算。本发明结合非易失存储与内存计算,一方面计算数据以纳秒级的速度从非易失器件中获得,特别是对于深度神经网络推理这种场景,可将模型参数事先存放于非易失存储区,计算时能减少了数据访问的时间,提高了系统性能;另一方面通过改进电路操作流程,减少了不必要的数据搬移时间,使得移位时间也能缩短至纳秒级别,提升了对于乘法计算这种有大量移位操作的计算效率,提高了系统性能。

    一种联邦学习模型训练方法、装置及联邦学习系统

    公开(公告)号:CN112232528B

    公开(公告)日:2021-03-09

    申请号:CN202011473442.X

    申请日:2020-12-15

    Abstract: 本发明公开了一种联邦学习模型训练方法、装置及联邦学习系统,边缘计算服务器和端设备接收云端联邦学习子系统形成的全局机器学习模型信息;一个边缘计算服务器与一个以上的端设备利用网络局部性的优势形成区域,端设备依靠本地数据并采用截断的方式完成模型本地训练,边缘计算服务器负责所辖区域内端设备的多轮更新并向云端联邦学习子系统发送更新后的模型信息;边缘计算服务器也采用截断的方式完成模型本地训练,云端联邦学习子系统负责多个边缘计算服务器的梯度更新;在训练到达收敛期,分别对边缘计算服务器所辖区域内端设备和云端联邦学习子系统负责的多个边缘计算服务器实施截断节点的补偿,形成全局机器学习模型信息。

    一种基于人脑记忆机制的深度神经网络训练数据采样方法

    公开(公告)号:CN112418422A

    公开(公告)日:2021-02-26

    申请号:CN202011307776.X

    申请日:2020-11-20

    Abstract: 本发明公开了一种基于人脑记忆机制的深度神经网络训练数据采样方法,包括如下步骤:S1,在初始训练周期,设置下一轮要训练的序列为整个训练集;S2,将训练序列中包含的数据根据批大小打包为多个批,放入神经网络进行训练,并获得样本的训练损失值;S3,根据损失值将样本序列划分为困难、中间、简单三种类型;S4,整个训练序列的样本都增加一个基本时钟,中间和简单的样本需要根据倒计时等待函数分别计算样本的额外增加的时钟数;S5,整个训练集的样本都减少一个时钟数,将时钟数为0的样本放入下一轮将要训练的序列之中;S6,重复步骤2‑5,直到神经网络收敛或者训练周期数结束。

Patent Agency Ranking