-
公开(公告)号:CN116702865A
公开(公告)日:2023-09-05
申请号:CN202310712420.1
申请日:2023-06-15
Applicant: 河海大学
Abstract: 本发明公开了一种基于知识迁移的脉冲神经网络训练方法,包括:构建数据集;构建教师ANN网络,用误差反向传播算法进行训练;构建脉冲神经网络SNN,记为学生网络,学生网络采用LIF神经元,并为LIF神经元引入近似梯度函数;利用反向传播算法训练SNN,在训练过程中,将教师网络已习得的知识通过逐层定义的损失函数迁移到学生网络中。本发明能够加快SNN的收敛,提高SNN的推理精度,使得将SNN部署在资源受限的设备上时实现低功耗、高精度、低延迟的表现。
-
公开(公告)号:CN116663605A
公开(公告)日:2023-08-29
申请号:CN202310407398.X
申请日:2023-04-17
Applicant: 河海大学
IPC: G06N3/0442 , G06N3/092
Abstract: 本发明公开了一种基于注意力序列嵌入的合作型多智能体经验回放方法,通过GRU单元的循环,获得经验序列的嵌入表征,所述嵌入表征中含有在一段连续时间内的聚合特征。本发明能够缓解多智能体不平稳环境中的经验过时问题,提高经验采样效率并且抑制过时经验对策略模型收敛带来的负面影响。从而最终提高合作型多智能体强化学习的策略模型训练性能。
-
公开(公告)号:CN112348199B
公开(公告)日:2022-08-30
申请号:CN202011194414.4
申请日:2020-10-30
Applicant: 河海大学
Abstract: 本发明涉及一种基于联邦学习与多任务学习的模型训练方法,将目标神经网络中各个全连接层划为目标神经网络的后部模型,以及将其中剩余部分划为目标神经网络的前部模型;由参数服务器负责更新各目标神经网络的前部模型,交换网络中的各个工作节点终端共同负责各目标神经网络的后部模型,如此应用联邦学习框架针对目标神经网络进行训练,通过对几个任务同时训练共同或相关的网络层,使得多个任务互相促进训练准确性,提高了模型收敛速率与泛化能力,获得目标神经网络高效训练的同时,能够保证基础数据的私密性与安全性。
-
公开(公告)号:CN112434805B
公开(公告)日:2022-08-05
申请号:CN202011198228.8
申请日:2020-10-30
Applicant: 河海大学
Abstract: 本发明涉及一种深度神经网络模块分割方法,考虑了数据重复的问题,获得划分时最优的方法;具体将最小化问题等价于最小割问题,可以更快速的得到全局最优解;具体针对深度神经网络所建模的有向无环图,采用图的最大流/最小割算法进行划分,获得有效分割,即作为对应深度神经网络的最佳分割;如此通过有效利用应用的分割,能够有效的减少应用在智能移动设备上的计算时延;在实验结果中,随着模型层数以及计算量的提高,采用上述改进方案,在移动智能设备上的运行时间得到了显著的减少,与未考虑重复传输问题的方法进行划分的方式相比,该划分方式得到的划分为最佳划分且运行速度的到了较大的提高。
-
公开(公告)号:CN114662639A
公开(公告)日:2022-06-24
申请号:CN202210301408.7
申请日:2022-03-24
Applicant: 河海大学
Abstract: 本发明公开了一种基于值分解的多智能体强化学习方法及系统,方法包括:获取环境当前t时刻的状态St,每个智能体初始的观察值可获得的动作以及该动作对应的奖励r;对于每个智能体,通过评估‑智能体网络计算每个动作基于局部信息τi观察到的值函数Qi(τi);利用随机‑智能体网络得到每个智能体基于全局信息τ的奖励值函数Qi(τ);利用目标‑智能体网络计算损失函数并更新参数;利用竞争‑智能体网络将每个智能体基于全局信息τ的奖励值函数Qi(τ)进行分解;将分解结果相加得到基于全局信息τ的联合奖励值函数Qtot(τ,a),完成训练。本发明对多智能体之间的逻辑拓扑关系进行了双重提取,在复杂的异构部分可观测场景中,提高智能体的学习效率和应变能力。
-
公开(公告)号:CN113989561A
公开(公告)日:2022-01-28
申请号:CN202111268128.2
申请日:2021-10-29
Applicant: 河海大学
Abstract: 本发明公开了一种基于异步联邦学习的参数聚合更新方法、设备及系统。所述方法通过在参数服务器上保存权重摘要来保留工作节点的最新权重,并且所有工作节点所占权重比例相同,权重摘要通过每个工作节点只能更新自身摘要部分,限制了快节点高频更新对整体权重的影响;所述方法通过在参数服务器上设置版本感知机制对权重摘要的版本进行记录,使得参数服务器聚合时可以根据工作节点不同的版本确定不同的加权比例,当整体版本差距过大时,通过全局更新的方式将慢节点中使用的旧权重更新到最新权重,从而提高慢节点的更新效率,使参数服务器上的模型更快的收敛。本发明可有效地提高基于联邦学习的机器学习模型的训练速度。
-
公开(公告)号:CN112988275A
公开(公告)日:2021-06-18
申请号:CN202110326021.2
申请日:2021-03-26
Applicant: 河海大学
Abstract: 本发明公开了一种基于任务感知的移动边缘计算多用户计算卸载方法,包括如下步骤:根据服务器收集到系统中所有用户设备任务的相关信息,对任务进行分类;将任务参数选择问题建模为最小支配集问题,通过基于粒子群优化的任务参数选择算法来选择出实际计算的任务和重用计算结果的任务;将实际计算的任务和重用计算结果的任务融合成新任务;利用建立好的任务卸载相关模型,根据融合成的新任务,获取到卸载决策,各用户设备执行各自的卸载决策,进行计算卸载。本发明可以有效减少重复数据传输以及任务重复计算,充分利用有限计算和通信资源,从而降低多用户任务的时延与能耗,提高用户体验。
-
公开(公告)号:CN112348199A
公开(公告)日:2021-02-09
申请号:CN202011194414.4
申请日:2020-10-30
Applicant: 河海大学
Abstract: 本发明涉及一种基于联邦学习与多任务学习的模型训练方法,将目标神经网络中各个全连接层划为目标神经网络的后部模型,以及将其中剩余部分划为目标神经网络的前部模型;由参数服务器负责更新各目标神经网络的前部模型,交换网络中的各个工作节点终端共同负责各目标神经网络的后部模型,如此应用联邦学习框架针对目标神经网络进行训练,通过对几个任务同时训练共同或相关的网络层,使得多个任务互相促进训练准确性,提高了模型收敛速率与泛化能力,获得目标神经网络高效训练的同时,能够保证基础数据的私密性与安全性。
-
公开(公告)号:CN111275591A
公开(公告)日:2020-06-12
申请号:CN202010040147.9
申请日:2020-01-15
Applicant: 河海大学
Abstract: 本发明公开了一种用于在线教育的教学质量评估方法,包括如下内容:设课程互动方式有A,B两种;对于课程i,用户j在课程互动方式A,B中的互动计数记为Aij,Bij,对数据做同趋化处理和无量纲化处理,得课程活动指标评测值A′ij,B′ij,使各指标值处于同一个数量级别上;对A′ij、B′ij取几何平均值,得用户j对课程f的平均关注度情况Cij;对用户平均关注度情况Gij做无量纲化处理;对用户j在课程i中的测验所得评分Tij做无量纲化处理;以用户j对课程i的关注情况作为加权,取该课程的课程测验加权平均值Vi;计算所有用户对课程i的平均关注度情况Cij的算数平均数,得用户对课程i的平均关注水平Pi;对Vi与Pi取几何平均数,得教学质量评估分数参考值Qi。
-
公开(公告)号:CN111104215A
公开(公告)日:2020-05-05
申请号:CN201911117318.7
申请日:2019-11-15
Applicant: 河海大学
Abstract: 本发明公开了一种基于分布式编码的随机梯度下降优化方法,针对在大规模分布式集群上面临的计算节点异构和通讯负载瓶颈带来的梯度延迟和效率下降的问题,基于分布式编码提出一种适应节点负载均衡的异步随机梯度下降优化算法。主要通过在数据交换阶段针对参数更新时产生的数据通信进行编码优化,并使用一种基于负载均衡策略通过对节点计算能力进行实时估计,优化节点间的任务分配,改善梯度延迟问题。本算法可以缓解由于梯度延迟问题导致的深度神经网络的损失函数难以收敛的问题,能够对大规模神经网络上的训练性能带来较好的提升,从而保证了提高了分布式神经网络训练算法的性能。
-
-
-
-
-
-
-
-
-