-
公开(公告)号:CN118095446B
公开(公告)日:2024-07-02
申请号:CN202410509575.X
申请日:2024-04-26
Applicant: 南京邮电大学
Abstract: 本发明属于边缘计算技术领域,公开了一种面向多优先级任务的自适应协同推理加速方法,当推理任务进入到边缘服务器处的排队等待队列时根据当前队列状态做出是否反悔上传到云的决策,若反悔则从原始的边端协同调整为端云协同,最终实现高效的协同推理加速过程,该自适应协同推理加速方法通过自适应协同推理加速系统实现,该系统包括多个终端设备、多个边缘服务器以及一个云服务器。本发明通过在边缘服务器设计基于任务优先级的非抢占式优先排队模型,保证在优先处理较高优先级任务的同时,较低优先级任务也能在时延容忍时间内完成处理,充分利用边缘服务器有限计算资源,使云服务器资源得到合理规划以保证较高的服务质量,获得最大收益。
-
公开(公告)号:CN117539640B
公开(公告)日:2024-03-26
申请号:CN202410026413.0
申请日:2024-01-09
Applicant: 南京邮电大学
IPC: G06F9/50 , G06F18/231 , G06N3/045 , G06N3/042 , G06N3/0985 , G06N5/04
Abstract: 本发明公开了一种边缘技术领域的面向异构推理任务的边端协同系统及资源分配方法,旨在解决现有技术中异构边缘服务器无法为异构推理任务进行合理、高效的资源分配等问题,边端协同系统包括终端设备层和边缘服务器层,终端设备层包括多个物联网设备,边缘服务器层包括多个异构边缘服务器,以及应用于边端协同系统的资源分配方法。本发明对物联网设备产生的多个并行异构推理任务进行边端协同处理,实现在满足推理任务不同需求的同时最大化系统的资源利用率。
-
公开(公告)号:CN117114113B
公开(公告)日:2023-12-29
申请号:CN202311378988.0
申请日:2023-10-24
Applicant: 南京邮电大学
IPC: G06N5/04 , G06N3/0464 , G06F9/50
Abstract: 本发明属于边缘计算技术领域,涉及一种基于排队论的协同推理加速方法;包括:步骤1建立任务属性模型;步骤2建立通信模型;步骤3依据当前队列状态信息做出是否直接上传云服务器的决策,上传则步骤7,否则步骤4;步骤4进行DNN模型分区,若此时任务不触发反悔机制则转步骤5,否则转步骤6;步骤5基于步骤4,边缘服务器协同执行推理任务并转步骤8;步骤6触发反悔机制,DNN模型深段部分转步骤7;步骤7模型上传云服务器并完成推理结果的聚合进入步骤8;步骤8获得此时的模型分区策略及总推理时延;当总推理时延不再减小,输出最优模型分区策略以及最小推理时延;结合队列状态信息对模型分区点进行优化,实现最小化系统推理时延。(56)对比文件顾冰雪.面向深度学习的云边任务迁移与调度研究《.中国优秀硕士学位论文全文数据库 信息科技辑》.2022,(第2022年12期),I139-422.郭永安 等.基于边端协同的CNN推理加速框架《.南京邮电大学学报(自然科学版)》.2023,第43卷(第3期),68-77.Siqi Fan 等.Dynamic Regret ofRandomized Online Service Caching in EdgeComputing《.arXiv》.2023,1-10.Zixing Lei 等.Latency-AwareCollaborative Perception《.arXiv》.2022,1-17.Bin Han 等.Impatient Queuing forIntelligent Task Offloading inMultiaccess Edge Computing《.IEEETRANSACTIONS ON WIRELESS COMMUNICATIONS》.2022,第22卷(第1期),59-72.
-
公开(公告)号:CN116541163A
公开(公告)日:2023-08-04
申请号:CN202310297848.4
申请日:2023-03-24
Applicant: 南京邮电大学
IPC: G06F9/50
Abstract: 本发明公开了一种基于任务聚类的云边端协同系统数据处理方法及系统,包括终端设备层、边缘服务器层和云服务器层;终端设备层包括各种移动终端设备;边缘服务器层包括多个具有计算能力的边缘服务器;云服务器层包括一个具有强计算能力的云服务器;终端设备层中的每个移动终端设备不进行本地计算且可产生一个计算任务,该任务被分解为多个子任务,将类型相同的子任务聚合到一个簇内,通过深度强化学习算法,终端设备层与边缘服务器层交互,为每个任务簇分配相应计算能力的边缘服务器来处理计算任务。本发明通过云边端协同计算,使用更多的节点来负载流量,有效降低系统时延,并且大大降低系统的能耗成本。
-
公开(公告)号:CN117707795B
公开(公告)日:2024-05-10
申请号:CN202410162969.2
申请日:2024-02-05
Applicant: 南京邮电大学
IPC: G06F9/50 , H04W28/084 , H04W28/08 , G06N5/043 , G06N3/042 , G06N3/045 , G06N3/0464 , G06N3/0495 , G06N3/092 , G06N3/098 , G06N3/084 , G06V10/96 , G06V10/94 , G06V10/82
Abstract: 本发明提供了一种基于图的模型划分的边端协同推理方法及系统,该方法包括:获取CNN模型以及边缘网络系统的工作负载信息和网络质量信息;将CNN模型转换为有向无环图;采用等价节点合并的方法对有向无环图进行压缩;对时延优化问题进行建模,协同推理时延由计算时延和数据传输时延组成。基于图神经网络和DQN算法,根据边缘网络系统的工作负载信息和网络质量信息进行DAG划分模型的训练,以最小化时延为目标求解时延优化问题,得到最优的划分策略。根据划分策略,将CNN模型划分为2个CNN模型分段,分别分配给端设备和边缘服务器进行计算,用以解决现有的CNN推理任务的推理时间没有得到最大限度的减少的问题。
-
公开(公告)号:CN117114113A
公开(公告)日:2023-11-24
申请号:CN202311378988.0
申请日:2023-10-24
Applicant: 南京邮电大学
IPC: G06N5/04 , G06N3/0464 , G06F9/50
Abstract: 本发明属于边缘计算技术领域,涉及一种基于排队论的协同推理加速方法;包括:步骤1建立任务属性模型;步骤2建立通信模型;步骤3依据当前队列状态信息做出是否直接上传云服务器的决策,上传则步骤7,否则步骤4;步骤4进行DNN模型分区,若此时任务不触发反悔机制则转步骤5,否则转步骤6;步骤5基于步骤4,边缘服务器协同执行推理任务并转步骤8;步骤6触发反悔机制,DNN模型深段部分转步骤7;步骤7模型上传云服务器并完成推理结果的聚合进入步骤8;步骤8获得此时的模型分区策略及总推理时延;当总推理时延不再减小,输出最优模型分区策略以及最小推理时延;结合队列状态信息对模型分区点进行优化,实现最小化系统推理时延。
-
公开(公告)号:CN116309429A
公开(公告)日:2023-06-23
申请号:CN202310240534.0
申请日:2023-03-14
Applicant: 南京邮电大学 , 南京邮信科技有限公司
IPC: G06T7/00 , G06V10/774 , G06V10/82 , G06V10/40 , G06N3/0464 , G06N3/045 , G06V10/80 , G06V10/25
Abstract: 本发明公开了一种基于深度学习的芯片缺陷检测方法,包括如下步骤:过高速工业相机采集不同种类的芯片表面缺陷图像;通过图像标注工具对芯片表面图像缺陷进行位置和类型的标注,构建缺陷数据集,将缺陷数据集分为训练数据集D和测试数据集T;基于改进的FasterR‑CNN框架,构建用于芯片缺陷检测的深度学习网络模型;该一种基于深度学习的芯片缺陷检测方法通过采用可变形卷积重构特征提取网络、多尺度特征融合、感兴趣区域对齐(ROI对齐)、软非最大值抑制等措施对FasterR‑CNN算法进行改进,解决了芯片缺陷体积小、形状复杂等问题,提高了缺陷检测的精度。
-
公开(公告)号:CN118095446A
公开(公告)日:2024-05-28
申请号:CN202410509575.X
申请日:2024-04-26
Applicant: 南京邮电大学
Abstract: 本发明属于边缘计算技术领域,公开了一种面向多优先级任务的自适应协同推理加速方法,当推理任务进入到边缘服务器处的排队等待队列时根据当前队列状态做出是否反悔上传到云的决策,若反悔则从原始的边端协同调整为端云协同,最终实现高效的协同推理加速过程,该自适应协同推理加速方法通过自适应协同推理加速系统实现,该系统包括多个终端设备、多个边缘服务器以及一个云服务器。本发明通过在边缘服务器设计基于任务优先级的非抢占式优先排队模型,保证在优先处理较高优先级任务的同时,较低优先级任务也能在时延容忍时间内完成处理,充分利用边缘服务器有限计算资源,使云服务器资源得到合理规划以保证较高的服务质量,获得最大收益。
-
公开(公告)号:CN117707795A
公开(公告)日:2024-03-15
申请号:CN202410162969.2
申请日:2024-02-05
Applicant: 南京邮电大学
IPC: G06F9/50 , H04W28/084 , H04W28/08 , G06N5/043 , G06N3/042 , G06N3/045 , G06N3/0464 , G06N3/0495 , G06N3/092 , G06N3/098 , G06N3/084 , G06V10/96 , G06V10/94 , G06V10/82
Abstract: 本发明提供了一种基于图的模型划分的边端协同推理方法及系统,该方法包括:获取CNN模型以及边缘网络系统的工作负载信息和网络质量信息;将CNN模型转换为有向无环图;采用等价节点合并的方法对有向无环图进行压缩;对时延优化问题进行建模,协同推理时延由计算时延和数据传输时延组成。基于图神经网络和DQN算法,根据边缘网络系统的工作负载信息和网络质量信息进行DAG划分模型的训练,以最小化时延为目标求解时延优化问题,得到最优的划分策略。根据划分策略,将CNN模型划分为2个CNN模型分段,分别分配给端设备和边缘服务器进行计算,用以解决现有的CNN推理任务的推理时间没有得到最大限度的减少的问题。
-
公开(公告)号:CN117539640A
公开(公告)日:2024-02-09
申请号:CN202410026413.0
申请日:2024-01-09
Applicant: 南京邮电大学
IPC: G06F9/50 , G06F18/231 , G06N3/045 , G06N3/042 , G06N3/0985 , G06N5/04
Abstract: 本发明公开了一种边缘技术领域的面向异构推理任务的边端协同系统及资源分配方法,旨在解决现有技术中异构边缘服务器无法为异构推理任务进行合理、高效的资源分配等问题,边端协同系统包括终端设备层和边缘服务器层,终端设备层包括多个物联网设备,边缘服务器层包括多个异构边缘服务器,以及应用于边端协同系统的资源分配方法。本发明对物联网设备产生的多个并行异构推理任务进行边端协同处理,实现在满足推理任务不同需求的同时最大化系统的资源利用率。
-
-
-
-
-
-
-
-
-