-
公开(公告)号:CN105979095B
公开(公告)日:2019-08-16
申请号:CN201610475292.3
申请日:2016-06-27
Applicant: 努比亚技术有限公司
Inventor: 王帅
Abstract: 本发明公开了一种移动终端及应用功耗控制方法,所述移动终端包括:设置模块,用于根据预设策略,设置白名单应用和灰名单应用;内存管理模块,用于在移动终端待机休眠后,将后台运行的除所述白名单应用和灰名单应用以外的应用清理出内存;应用管理模块,用于禁止后台运行的所述灰名单应用的一项或多项耗电操作。本发明将应用分为白名单,灰名单和其他应用,并根据应用不同特征进行相应的处理,节省了系统功耗,也让用户在使用时有较好的体验。
-
公开(公告)号:CN105659208B
公开(公告)日:2019-07-19
申请号:CN201480058371.3
申请日:2014-09-17
Inventor: 大卫·汉纳·曼塞尔
IPC: G06F9/38
CPC classification number: G06F9/50 , G06F9/3851 , G06F9/3887 , G06F9/455 , G06F9/4856 , G06F9/5033 , G06F2209/5018 , Y02D10/22 , Y02D10/24 , Y02D10/32
Abstract: 一种含有处理电路以处理每个含有线程状态数据的线程的数据处理装置。线程可在线程组内被处理,且每个线程组包括若干用为每个线程执行的公共程序并行处理的线程。数个线程状态存储区域由固定数目的线程状态条目提供,为相应的线程存储线程状态数据。存储区域的至少两个含有不同固定数目的条目。处理电路将线程状态数据存储在同一存储区域的线程作为同一线程组处理,且将线程状态数据存储在不同存储区域的线程作为不同的线程组处理。
-
公开(公告)号:CN106157176B
公开(公告)日:2019-07-12
申请号:CN201610597129.4
申请日:2016-07-26
Applicant: 东南大学
Abstract: 本文公开了一种GPU加速的电力潮流雅可比矩阵的LU分解方法,包括CPU中对雅可比矩阵J进行LU符号分解,得到下三角变换矩阵L和上三角矩阵U矩阵的稀疏结构,符号分解之后的J的稀疏结构等于L+U;根据U阵的稀疏结构,对矩阵J各列进行并行化分层,并将计算所需数据传输给GPU;GPU中按层次递增的顺序计算分层LU分解内核函数SparseLU。本发明利用CPU控制程序的流程并处理基础数据和GPU处理密集的浮点运算相结合的模式提高了电力潮流雅可比矩阵LU分解的效率,解决了电力系统静态安全性分析中潮流计算耗时大的问题。
-
公开(公告)号:CN105677441B
公开(公告)日:2019-07-09
申请号:CN201410673544.4
申请日:2014-11-21
Applicant: 华为技术有限公司
Abstract: 本发明实施例提供一种虚拟机迁移方法、虚拟设施管理器及协调器。本发明实施例提供的虚拟机迁移方法包括:获取源VIM管理的各物理机的资源使用信息;根据该各物理机的资源使用信息及预设的物理机的资源阈值,确定处于空闲状态的物理机,并将该空闲状态的物理机上的虚拟机确定为待迁移虚拟机;向管理该源VIM的协调器发送迁移请求消息,该迁移请求消息包括该待迁移虚拟机的ID和该源VIM的ID;接收该协调器发送的迁移指示消息,该迁移指示消息包括该待迁移虚拟机的目的VIM的ID;将该待迁移虚拟机迁移至该待迁移虚拟机的目的VIM管理的物理机。本发明实施例可实现数据中心间的资源优化,降低数据中心的能耗。
-
公开(公告)号:CN104246704B
公开(公告)日:2019-05-31
申请号:CN201280072461.9
申请日:2012-06-29
IPC: G06F9/46
CPC classification number: G06F9/5094 , G06F1/206 , G06F1/3206 , G06F1/329 , G06F9/4856 , G06F9/5038 , Y02D10/22 , Y02D10/24
Abstract: 本文公开的各实现方式涉及基于热的优先计算应用调度。例如,处理器可确定优先计算应用。所述处理器可根据与第二处理单元关联的热能量储备,调度所述优先计算应用,以将执行从第一处理单元转移到所述第二处理单元。
-
公开(公告)号:CN109791506A
公开(公告)日:2019-05-21
申请号:CN201680089896.2
申请日:2016-10-10
Applicant: 瑞典爱立信有限公司
IPC: G06F9/50 , G06F12/084
CPC classification number: G06F9/5033 , G06F9/4843 , G06F9/5027 , G06F12/084 , G06F2212/1041 , G06F2212/62 , Y02D10/13 , Y02D10/22
Abstract: 提供了用于将多个任务中的任务调度到处理器核集群中的处理器核的机制。各处理器核共享高速缓存。方法由控制器执行。该方法包括:基于在共享相同高速缓存的处理器核上运行由多个任务构成的各组所导致的高速缓存未命中的持续时间,确定所述多个任务之间的按组任务关系。该方法包括基于任务的按组任务关系将该任务调度到其中一个处理器核。
-
公开(公告)号:CN103513749B
公开(公告)日:2018-11-16
申请号:CN201310236615.X
申请日:2013-06-14
Applicant: 三星电子株式会社
Inventor: 柳义烈
IPC: G06F1/32
CPC classification number: G06F1/3228 , G06F1/3293 , G06F9/5094 , Y02D10/22
Abstract: 本发明提供了一种多集群处理系统以及操作多集群处理系统的方法。所述多集群处理系统包括:包括多个第一类型核的第一集群;包括多个第二类型核的第二集群;以及配置成监测所述第一类型核和所述第二类型核的负载的控制单元,其中当已启用的第一类型核中的至少一个的利用率超出每一个所述第一类型核的预定阈值利用率时,在第一模式中所述控制单元启用被禁用的第一类型核中的至少一个,并且在第二模式中所述控制单元启用被禁用的第二类型核中的至少一个并且禁用第一集群,其中每一个所述第二类型核的单位时间计算量大于每一个所述第一类型核的单位时间计算量。
-
公开(公告)号:CN108763129A
公开(公告)日:2018-11-06
申请号:CN201810311226.1
申请日:2012-12-06
Applicant: 英特尔公司
CPC classification number: G06F15/80 , G06F1/3206 , G06F1/3293 , G06F1/3296 , G06F9/5094 , G06F13/4022 , Y02D10/122 , Y02D10/151 , Y02D10/22
Abstract: 本申请涉及具有相同的指令集架构(ISA)的非对称性能多核架构。根据本申请,描述了一种方法,该方法包括允许多核处理器的各核的操作,使得两种核都用相同的指令集支持各自的软件例程,在一组相同的所施加的供电电压和工作频率下,第一核比第二核具有更高的性能且消耗更多的功率。
-
公开(公告)号:CN105260005B
公开(公告)日:2018-09-14
申请号:CN201510607563.1
申请日:2015-09-22
Applicant: 浙江工商大学
Inventor: 谢毅
Abstract: 本发明公开了一种面向能耗的云工作流调度优化方法,包括如下步骤:(1)建立面向能耗的云工作流过程模型和资源模型;(2)计算任务的优先级;(3)从任务集T中取出一个优先级最高的任务t,找出可以执行任务t的虚拟机集合VMt,计算把任务t分别分配给VMt中的每个虚拟机后完成所有已分配任务将消耗的能耗;(4)找出消耗能耗最小的vm,如果最小的只有一个,把t分配给此vm,如有多个,则把t分配给能耗消耗最小当中其所在主机性能功耗比最高的;把任务t从任务集T中删除,若任务集T不为空则转到(3),否则转到(5);(5)输出工作流调度方案。提出的调度优化方法考虑了能耗因素,在保持工作流执行时间效率的同时有效降低主机处理任务所消耗的能耗。
-
公开(公告)号:CN104714849B
公开(公告)日:2018-08-24
申请号:CN201410698634.9
申请日:2014-11-27
Applicant: 国际商业机器公司
CPC classification number: G06F9/45558 , G06F9/5077 , G06F9/5083 , G06F2009/4557 , G06F2209/5021 , G06F2209/504 , Y02D10/22
Abstract: 本发明涉及用于在综合工作负载环境中实现最佳性能的系统和方法。提供用于在虚拟机(VM)环境中动态调整软件线程到硬件线程的分配的机制。该机制通过虚拟机管理器(VMM)从多个VM接收工作负载优先级的指示。该指示表明在多个VM中的每个VM上执行的工作负载的优先级。该机制通过VMM向每个VM提供物理资源使用的指示。该物理资源使用的指示是在多个VM中的所有VM上的物理资源使用的指示。该机制通过每个VM基于物理资源使用的指示和在该VM上执行的工作负载的优先级,自动地调整对应的软件线程到硬件线程的分配,以达到在多个VM中的所有VM上的硬件线程的使用平衡。
-
-
-
-
-
-
-
-
-