-
公开(公告)号:CN100527098C
公开(公告)日:2009-08-12
申请号:CN200710178118.3
申请日:2007-11-27
Applicant: 北京大学
Abstract: 本发明公开了一种虚拟机管理器的动态内存映射方法,其步骤为:分别建立虚拟机和虚拟机管理器的页面池;虚拟机访问违例时虚拟机管理器动态建立并更新虚拟机物理内存集合P到虚拟机管理器页面池中的机器内存集合M的映射关系f(p);采用本发明的方法可以同时支持上层的按需取页、虚拟存储和内存共享功能,使得虚拟机管理器在充分保证虚拟机访问内存性能的前提下,实现虚拟机内存的动态管理和调配。
-
公开(公告)号:CN100489787C
公开(公告)日:2009-05-20
申请号:CN200710118597.X
申请日:2007-07-10
Applicant: 北京大学
Abstract: 本发明涉及一种虚拟机的外存在线迁移方法,在推送(Push)阶段,首先将虚拟机的全部外存数据由源主机发送至目的主机;虚拟机管理器监控当前外存发送过程中虚拟机的外存访问,记录该发送过程中的外存块更新状态,标记被写脏外存脏块;将外存脏块循环由源主机发送至目的主机;直至达到设定的条件,停止外存数据的发送,进入停机阶段;然后根据外存更新状态记录信息确定剩余的外存脏块及其大小,将所有剩余的外存脏块由源主机发送至目的主机;或在拉拽(Pull)阶段,根据外存更新状态记录信息将剩余的外存脏块进行同步操作。保证迁移过程中仅有非常短暂的停机时间,使得在线迁移不依赖于共享外存设备的硬件环境,能够在分散式外存环境下得到应用。
-
公开(公告)号:CN101403992A
公开(公告)日:2009-04-08
申请号:CN200810029571.2
申请日:2008-07-18
Abstract: 本发明实施例公开了一种实现远程内存交换的方法、装置及系统,所述方法包括:从虚拟机的机器内存中释放机器页面,所述机器页面映射有物理页面;将映射了所述机器页面的物理页面的内容传送到远程交换空间,其中,所述远程交换空间建立在远程物理主机上。本发明实施例公开的实现远程内存交换的装置包括页面回收模块及远程发送模块。采用本发明实施例,将虚拟机的部分内存交换到远程物理主机的空闲内存上,提高在一组物理主机上聚合虚拟机的数量和执行效率,使得在充分保证虚拟机页面交换性能的前提下,实现对物理主机更高的利用率,降低总体拥有成本。
-
公开(公告)号:CN101101562A
公开(公告)日:2008-01-09
申请号:CN200710118597.X
申请日:2007-07-10
Applicant: 北京大学
Abstract: 本发明涉及一种虚拟机的外存在线迁移方法,在推送(Push)阶段,首先将虚拟机的全部外存数据由源主机发送至目的主机;虚拟机管理器监控当前外存发送过程中虚拟机的外存访问,记录该发送过程中的外存块更新状态,标记被写脏外存脏块;将外存脏块循环由源主机发送至目的主机;直至达到设定的条件,停止外存数据的发送,进入停机阶段;然后根据外存更新状态记录信息确定剩余的外存脏块及其大小,将所有剩余的外存脏块由源主机发送至目的主机;或在拉拽(Pull)阶段,根据外存更新状态记录信息将剩余的外存脏块进行同步操作。保证迁移过程中仅有非常短暂的停机时间,使得在线迁移不依赖于共享外存设备的硬件环境,能够在分散式外存环境下得到应用。
-
公开(公告)号:CN112506666A
公开(公告)日:2021-03-16
申请号:CN202011525125.8
申请日:2020-12-22
Abstract: 本发明公开了一种基于驱动封装的GPU分时共享方法及系统,所述方法包括:获取任务切换指令,并根据所述任务切换指令确定切换前的任务;根据所述切换前的任务,确定所述切换前的任务所占用的GPU显存资源;将所述GPU显存资源备份,并在备份完成后释放所述GPU显存资源,以使得切换后的任务使用GPU并运行。本发明可通过截获用户应用对GPU资源的使用,并且在任务切换时,将所述GPU显存资源备份,并在备份完成后释放所述GPU显存资源,以使得切换后的任务使用GPU并运行,从而实现了GPU资源在不同任务之间的分时共享,推高了集群资源的利用率,降低了用户的等待时间。
-
公开(公告)号:CN108241472A
公开(公告)日:2018-07-03
申请号:CN201711250255.3
申请日:2017-12-01
Applicant: 北京大学
Abstract: 本发明涉及一种支持局部性表达函数的大数据处理方法和系统。该方法包括以下步骤:1)发掘大数据处理系统中所处理的数据的局部性,形成局部性表达函数;2)将局部性表达函数部署在大数据处理系统中;3)大数据处理系统按照局部性表达函数分配工作任务。所述大数据处理系统采用分布式存储方式或集中式存储方式;所述局部性表达函数在大数据处理系统中的部署方式分为两种类型:内置式冷启动模式、外置式热插拔模式。本发明通过发掘数据中隐藏的局部性,并且使用自定义的局部性函数表达出来,最终被大数据处理系统识别,按照局部性来分配机器执行任务,从而达到优化处理效率。
-
公开(公告)号:CN103984599B
公开(公告)日:2017-05-17
申请号:CN201410146873.3
申请日:2014-04-14
Applicant: 北京大学
IPC: G06F9/50
Abstract: 本发明公开了一种提高操作系统大页使用率的方法。本方法为:1)系统在每一进程的虚拟地址空间数据结构中增加一变量a,记录为进程已经分配虚拟地址的堆顶位置;2)进程启动时,系统将a初始化为0;当该进程调用堆顶设置函数进行内存申请时,向系统传入一堆顶参数b;3)系统根据该进程上一次请求的堆顶位置和当前请求的堆顶位置b,计算堆顶位置向上大页对齐之后的值c;4)系统将a的当前值赋值给该进程的记录已分配内存最高堆地址变量,并将其与c进行比较:如果小于c,则根据二者差值增大该进程的堆栈空间;如果小于c,则进行内存释放,如果相等则不进行内存调用。本发明充分提升了大页的使用率,进而提升程序的性能。
-
公开(公告)号:CN103955394A
公开(公告)日:2014-07-30
申请号:CN201410133294.5
申请日:2014-04-03
Applicant: 北京大学
Abstract: 本发明公开了一种基于推迟提交的GPU虚拟化优化方法。本方法为:1)客户机上的GPU虚拟化框架前端读入一待执行CUDA应用程序的二进制文件,查找并标记可推迟提交的循环;2)前端执行到可推迟提交的循环部分时,直到该循环结束之前,缓存所有的CUDA函数调用信息及其依赖关系,跳过该函数调用的执行,然后在该循环结束之后将该缓存信息一次发送到宿主机上的GPU虚拟化框架后端;3)后端根据该缓存信息重新构建函数调用并执行,然后将所有任务执行结果打包一次发送回前端;可推迟提交的循环指不去执行循环中的CUDA函数调用,循环依然可以正确执行。本发明减少了前后端通信的次数,从而对GPU虚拟化的性能进行优化。
-
公开(公告)号:CN103885815A
公开(公告)日:2014-06-25
申请号:CN201410110698.2
申请日:2014-03-24
Applicant: 北京大学
Abstract: 本发明公开一种基于热页迁移的虚拟机动态缓存方法。该方法利用页表项的访问位监测页面的使用,将所有页面按访问频度(热度)进行排序,实现热页监控;然后通过页面迁移对虚拟机的缓存配额进行调整,优先将访问频度(热度)高的页面迁移到新的缓存分区内,实现动态缓存划分。本发明在虚拟化运行环境中把处理器高速缓存当作一个可管理的资源,所采用的页面迁移机制和热页监控机制的开销能够维持在较低的水平,能够降低并行程序的缓存冲突从而提高缓存利用率,使程序执行效率得到提升,从而比静态划分等方法达到更高的优化效率。
-
公开(公告)号:CN101882113A
公开(公告)日:2010-11-10
申请号:CN200910083149.X
申请日:2009-05-05
Applicant: 北京大学
Abstract: 本发明公开了一种基于客户操作系统内核代码替换的内存虚拟化方法,属于计算机软件技术领域。本发明的方法为:1)将所有指向页表页或页目录页的页表项PTE转换为受保护的页表项P-PTE;同时为每个进程维护一个恢复表;2)在VMM内部建立从客户到主机的内存页面号映射表G2H和从主机到客户间的内存页面号映射表H2G,完成客户和主机间的双向内存地址转换;3)根据映射表G2H和H2G实现页目录项PDE、普通页表项PTE和P-PTE的读取,以及PDE和PTE的写入。与现有技术现比,本发明在不修改Guest OS内核源代码的前提下,内存虚拟化的开销小、性能高,从而解决现有全虚拟化系统中的内存虚拟化性能较差的问题。
-
-
-
-
-
-
-
-
-