-
公开(公告)号:CN120046662A
公开(公告)日:2025-05-27
申请号:CN202510139595.7
申请日:2025-02-08
Applicant: 南京大学
IPC: G06N3/049 , G06N3/0464 , G06N3/045 , G06N3/063 , G06N3/08
Abstract: 本发明公开了一种可重构混合神经网络计算方法及装置,属于神经网络技术领域,其技术方案要点是包括,多个顺序设置的脉冲计算单元,每个脉冲计算单元的第一输入包括第一数据和第二数据中的一个,第一数据为待卷积数据的其中一个比特位数据,第二数据为一时间步长的脉冲数据,相邻的上一个脉冲计算单元的输出膜电压作为相邻的下一个脉冲计算单元的第二输入;每个脉冲计算单元响应于当前所有输入的第一数据,得到当前推理结果和输出膜电压;乘累加单元,乘累加单元响应于当前时间步长的第二数据,与每个脉冲计算单元共同基于第一输入和第二输入,得到输出膜电压和输出脉冲,本发明同时支持脉冲神经网络和人工神经网络的计算,且不消耗额外硬件资源。
-
公开(公告)号:CN119577623B
公开(公告)日:2025-05-23
申请号:CN202510119819.8
申请日:2025-01-25
Applicant: 南京大学
Abstract: 本发明公开了一种基于多级复用算法的超轻量化癫痫监测方法及系统,属于卷积神经网络技术领域,其技术方案要点是,获取当前t时刻的脑电波样本数据、t‑kn时刻的脑电波样本推理结果和t‑k时刻的图卷积结果数据,其中每个时刻的脑电波采样长度均为m×k×n,k为采样步长,n、m和k均为正整数;提取t‑kn时刻的脑电波样本推理结果中与当前t时刻采样区间重叠的数据,得到第一数据,提取t‑k时刻的图卷积结果数据中,与当前t时刻采样区间重叠且与t‑kn时刻采样区间不重叠的数据,得到第二数据;根据第一数据和第二数据,得到t时刻的脑电波推理结果,本发明通过复用当前时刻之前的结果数据,减少了平均推理的计算量。
-
公开(公告)号:CN119987715A
公开(公告)日:2025-05-13
申请号:CN202510069511.7
申请日:2025-01-16
Applicant: 南京大学
Abstract: 本发明公开了一种基于一乘两加结构的乘累加运算方法及装置,包括:乘累加模块和控制模块;其中,所述乘累加模块用于获取至少两组源数据,通过一个乘法器和两个加法器对所述源数据进行乘累加运算,得到结果数据;所述控制模块根据计数警示信号生成控制信号,控制所述乘累加模块的乘累加运算过程。本发明通过一乘两加结构的乘累加模块实现数据的乘累加运算,能够更灵活地支持多并行度的计算任务;通过控制模块控制乘累加计算过程,可以根据不同的应用场景,配置不同的控制逻辑和运算流程;实现了高效的乘累加运算,并具有良好的可扩展性和灵活性。
-
公开(公告)号:CN119558360A
公开(公告)日:2025-03-04
申请号:CN202411607181.4
申请日:2024-11-12
Applicant: 南京大学
IPC: G06N3/049 , G06N3/0464 , G06N3/063
Abstract: 本发明涉及神经网络技术领域,是一种基于四进制脉冲的脉冲神经网络加速器及其计算方法,具体方法包括:构建神经元模型,预设三个膜阈值,根据神经元实时膜电位和三个膜阈值进行四进制脉冲生成触发判断,同时在四进制脉冲生成过程中执行零跳过策略,筛选获得有效四进制脉冲;当所述神经元模型中的神经元生成并发放有效四进制脉冲完成后,通过膜电位重置策略对神经元的膜电位进行重置处理;同步使用带有四进制脉冲的输入数据对带有四进制脉冲的深度残差脉冲神经网络进行训练,并通过额外的加法器生成最终的输出膜电位和四进制脉冲;本发明显著缩短了SNN的处理时间窗口,提高了计算效率和能效,适用于各种神经网络计算任务。
-
公开(公告)号:CN119523414A
公开(公告)日:2025-02-28
申请号:CN202411507881.6
申请日:2024-10-28
Applicant: 南京大学
Abstract: 本发明涉及癫痫预测技术领域,是一种基于可调节抑制发射的脉冲神经网络的癫痫预测系统,具体包括:数据预处理模块、脉冲神经网络模块、神经网络优化模块、发射模式判断模块和加速器模块;通过数据预处理模块得到可以供给神经网络训练和测试的数据集,然后通过脉冲神经网络模块、神经网络优化模块和发射模式判断模块对脉冲神经网络进行软件优化和硬件优化,最后通过加速器模块实现所述基于可调节抑制发射的脉冲神经网络的癫痫预测系统,本发明解决了现有技术中,脉冲神经网络的计算量庞大,功耗消耗也大导致计算速度慢且无法满足可穿戴设备需求的问题。
-
公开(公告)号:CN119476381A
公开(公告)日:2025-02-18
申请号:CN202411490368.0
申请日:2024-10-24
Applicant: 南京大学
IPC: G06N3/063 , G06N3/084 , G06N3/098 , G06F18/2433
Abstract: 本发明公开了一种基于可学习阈值的异常值感知低精度训练硬件系统,属于神经网络训练领域,旨在解决在边缘计算设备上进行深度神经网络训练时,如何在保证量化精度的同时有效处理异常值的问题。其包括通过在线更新异常值的阈值提高模型量化性能,具体包括以下步骤:配置异常值阈值实时监测和识别输入的计算数据中的异常值,并根据识别结果对计算数据进行感知量化;对感知量化后的计算数据进行数据转换,并进行数据编码,根据数据编码结果确定计算场景;基于计算场景分配计算任务至处理单元簇中;通过梯度下降算法计算异常值梯度,并进行可学习的异常值阈值更新;在网络训练完成后,进行性能评估,并将结果进行整理和输出。
-
公开(公告)号:CN119132248A
公开(公告)日:2024-12-13
申请号:CN202411527796.6
申请日:2024-10-30
Applicant: 南京大学
IPC: G09G3/34 , G06T3/04 , G06T5/60 , G06T5/70 , G06T5/20 , G06T3/4007 , G06T3/4046 , G06T1/20 , G06F5/06 , G06N3/0464 , G06N3/0455
Abstract: 本发明公开了一种显示器件的动态背光调控方法及系统,包括:根据当前待显示的原始输入图像中每个像素点的特征值,形成灰度图像;将灰度图像输入至预设的卷积神经网络编码器模型,得到压缩特征图;将压缩特征图输入至预设的耦合扩散算法解码器模型,得到更新图像;基于更新图像每个像素点的灰度值,调控所述显示器的背光;本发明采用神经网络方法来进行图像背光的压缩特征提取,提升了算法对不同显示场景的适应性,在解码器阶段通过双线性插值和最近邻插值的耦合,使得扩充阶段的运算不过于复杂,又提供了相对更加可靠、平滑的图像效果,对于视频流的处理采用了乒乓设计和流水线架构设计,增加了并行度和数据吞吐率,提高了数据处理效率。
-
公开(公告)号:CN113162586B
公开(公告)日:2024-02-13
申请号:CN202110422878.4
申请日:2021-04-16
Applicant: 南京大学
Abstract: 本发明提供了一种时钟占空比修调方法及系统,其中方法具体包括:对待进行修调的输入信号进行延时控制后,进行电流控制和时间控制;根据经过电流控制和时间控制处理后的输入信号,对电荷泵进行充放电的调整;整形后,输出修调后的正弦波信号。本发明针对电路中实际存在的时钟信号占空比不稳定,传统占空比调节电路功耗大并且性能不稳定等问题,通过将时钟信号转换并进行延时控制,实现对输入时钟信号占空比的校准,达到不受温度、电压和制作工艺影响的目的。另一方面,第一个周期后与输入信号无关,使得时钟信号的精确度和可靠性提高,同时,具有较强的兼容性和实用性。
-
公开(公告)号:CN117236398A
公开(公告)日:2023-12-15
申请号:CN202311256510.0
申请日:2023-09-27
Applicant: 南京大学
IPC: G06N3/065 , G06N3/048 , G06N3/047 , G06N3/0985
Abstract: 本发明公开了一种基于人工神经网络的片上网络延时预测器,包括收集随机硬件映射和与其对应的网络特征值,将硬件映射和网络特征值组成数据集;根据所述数据集设置片上网络延时预测模型的网络结构与训练参数;使用K折交叉验证法训练片上网络延时预测模型,得到模型的最优超参数;使用最优超参数在所有训练数据上重新训练片上网络延时预测模型,得到最终的片上网络延时预测模型;评估最终的片上网络延时预测模型在测试集上的泛化能力。本发明可在使用穷举、启发式、迭代算法探索最优映射时替代片上网络仿真器,快速得到不同输入硬件映射对应所需的延迟时间,辅助最优映射探索,计算成本较低,具有较好的泛化能力与较强的鲁棒性。
-
公开(公告)号:CN117077746A
公开(公告)日:2023-11-17
申请号:CN202311085861.X
申请日:2023-08-25
Applicant: 南京大学
Abstract: 本发明提供了一种基于二值权重的脉冲神经网络的无监督片上学习系统,包括编码及排序模块,计算模块,求最小值模块,和二值权重更新模块。编码及排序模块将输入数据进行编码并进行升序排列;计算模块计算输出神经元是否产生脉冲,并产生状态向量和索引向量用于神经元选择模块和二值权重更新模块;神经元选择模块选中发射脉冲时间最早的神经元;二值权重更新模块基于二值权重更新规则对选中的神经元的二值权重进行更新。本方法的初始权重,以及在训练及推理时使用的权重均为二值权重(0,1),大大减小了对于硬件中存储的需求,且二值权重无需使用乘法器,能够实现在硬件上进行低面积、低功耗的片上训练。
-
-
-
-
-
-
-
-
-