一种面向多优先级任务的自适应协同推理加速方法

    公开(公告)号:CN118095446B

    公开(公告)日:2024-07-02

    申请号:CN202410509575.X

    申请日:2024-04-26

    Abstract: 本发明属于边缘计算技术领域,公开了一种面向多优先级任务的自适应协同推理加速方法,当推理任务进入到边缘服务器处的排队等待队列时根据当前队列状态做出是否反悔上传到云的决策,若反悔则从原始的边端协同调整为端云协同,最终实现高效的协同推理加速过程,该自适应协同推理加速方法通过自适应协同推理加速系统实现,该系统包括多个终端设备、多个边缘服务器以及一个云服务器。本发明通过在边缘服务器设计基于任务优先级的非抢占式优先排队模型,保证在优先处理较高优先级任务的同时,较低优先级任务也能在时延容忍时间内完成处理,充分利用边缘服务器有限计算资源,使云服务器资源得到合理规划以保证较高的服务质量,获得最大收益。

    一种面向异构推理任务的边端协同系统及资源分配方法

    公开(公告)号:CN117539640B

    公开(公告)日:2024-03-26

    申请号:CN202410026413.0

    申请日:2024-01-09

    Abstract: 本发明公开了一种边缘技术领域的面向异构推理任务的边端协同系统及资源分配方法,旨在解决现有技术中异构边缘服务器无法为异构推理任务进行合理、高效的资源分配等问题,边端协同系统包括终端设备层和边缘服务器层,终端设备层包括多个物联网设备,边缘服务器层包括多个异构边缘服务器,以及应用于边端协同系统的资源分配方法。本发明对物联网设备产生的多个并行异构推理任务进行边端协同处理,实现在满足推理任务不同需求的同时最大化系统的资源利用率。

    一种基于排队论的协同推理加速方法

    公开(公告)号:CN117114113B

    公开(公告)日:2023-12-29

    申请号:CN202311378988.0

    申请日:2023-10-24

    Abstract: 本发明属于边缘计算技术领域,涉及一种基于排队论的协同推理加速方法;包括:步骤1建立任务属性模型;步骤2建立通信模型;步骤3依据当前队列状态信息做出是否直接上传云服务器的决策,上传则步骤7,否则步骤4;步骤4进行DNN模型分区,若此时任务不触发反悔机制则转步骤5,否则转步骤6;步骤5基于步骤4,边缘服务器协同执行推理任务并转步骤8;步骤6触发反悔机制,DNN模型深段部分转步骤7;步骤7模型上传云服务器并完成推理结果的聚合进入步骤8;步骤8获得此时的模型分区策略及总推理时延;当总推理时延不再减小,输出最优模型分区策略以及最小推理时延;结合队列状态信息对模型分区点进行优化,实现最小化系统推理时延。(56)对比文件顾冰雪.面向深度学习的云边任务迁移与调度研究《.中国优秀硕士学位论文全文数据库 信息科技辑》.2022,(第2022年12期),I139-422.郭永安 等.基于边端协同的CNN推理加速框架《.南京邮电大学学报(自然科学版)》.2023,第43卷(第3期),68-77.Siqi Fan 等.Dynamic Regret ofRandomized Online Service Caching in EdgeComputing《.arXiv》.2023,1-10.Zixing Lei 等.Latency-AwareCollaborative Perception《.arXiv》.2022,1-17.Bin Han 等.Impatient Queuing forIntelligent Task Offloading inMultiaccess Edge Computing《.IEEETRANSACTIONS ON WIRELESS COMMUNICATIONS》.2022,第22卷(第1期),59-72.

    一种基于任务聚类的云边端协同系统数据处理方法及系统

    公开(公告)号:CN116541163A

    公开(公告)日:2023-08-04

    申请号:CN202310297848.4

    申请日:2023-03-24

    Abstract: 本发明公开了一种基于任务聚类的云边端协同系统数据处理方法及系统,包括终端设备层、边缘服务器层和云服务器层;终端设备层包括各种移动终端设备;边缘服务器层包括多个具有计算能力的边缘服务器;云服务器层包括一个具有强计算能力的云服务器;终端设备层中的每个移动终端设备不进行本地计算且可产生一个计算任务,该任务被分解为多个子任务,将类型相同的子任务聚合到一个簇内,通过深度强化学习算法,终端设备层与边缘服务器层交互,为每个任务簇分配相应计算能力的边缘服务器来处理计算任务。本发明通过云边端协同计算,使用更多的节点来负载流量,有效降低系统时延,并且大大降低系统的能耗成本。

    一种基于排队论的协同推理加速方法

    公开(公告)号:CN117114113A

    公开(公告)日:2023-11-24

    申请号:CN202311378988.0

    申请日:2023-10-24

    Abstract: 本发明属于边缘计算技术领域,涉及一种基于排队论的协同推理加速方法;包括:步骤1建立任务属性模型;步骤2建立通信模型;步骤3依据当前队列状态信息做出是否直接上传云服务器的决策,上传则步骤7,否则步骤4;步骤4进行DNN模型分区,若此时任务不触发反悔机制则转步骤5,否则转步骤6;步骤5基于步骤4,边缘服务器协同执行推理任务并转步骤8;步骤6触发反悔机制,DNN模型深段部分转步骤7;步骤7模型上传云服务器并完成推理结果的聚合进入步骤8;步骤8获得此时的模型分区策略及总推理时延;当总推理时延不再减小,输出最优模型分区策略以及最小推理时延;结合队列状态信息对模型分区点进行优化,实现最小化系统推理时延。

    一种面向多优先级任务的自适应协同推理加速方法

    公开(公告)号:CN118095446A

    公开(公告)日:2024-05-28

    申请号:CN202410509575.X

    申请日:2024-04-26

    Abstract: 本发明属于边缘计算技术领域,公开了一种面向多优先级任务的自适应协同推理加速方法,当推理任务进入到边缘服务器处的排队等待队列时根据当前队列状态做出是否反悔上传到云的决策,若反悔则从原始的边端协同调整为端云协同,最终实现高效的协同推理加速过程,该自适应协同推理加速方法通过自适应协同推理加速系统实现,该系统包括多个终端设备、多个边缘服务器以及一个云服务器。本发明通过在边缘服务器设计基于任务优先级的非抢占式优先排队模型,保证在优先处理较高优先级任务的同时,较低优先级任务也能在时延容忍时间内完成处理,充分利用边缘服务器有限计算资源,使云服务器资源得到合理规划以保证较高的服务质量,获得最大收益。

    一种面向异构推理任务的边端协同系统及资源分配方法

    公开(公告)号:CN117539640A

    公开(公告)日:2024-02-09

    申请号:CN202410026413.0

    申请日:2024-01-09

    Abstract: 本发明公开了一种边缘技术领域的面向异构推理任务的边端协同系统及资源分配方法,旨在解决现有技术中异构边缘服务器无法为异构推理任务进行合理、高效的资源分配等问题,边端协同系统包括终端设备层和边缘服务器层,终端设备层包括多个物联网设备,边缘服务器层包括多个异构边缘服务器,以及应用于边端协同系统的资源分配方法。本发明对物联网设备产生的多个并行异构推理任务进行边端协同处理,实现在满足推理任务不同需求的同时最大化系统的资源利用率。

Patent Agency Ranking