-
公开(公告)号:CN112003860A
公开(公告)日:2020-11-27
申请号:CN202010851056.3
申请日:2020-08-21
Applicant: 上海交通大学
Abstract: 本发明提供了一种适用于远程直接内存访问的内存管理方法、系统及介质,包括:步骤1:在发送端发送请求时,记录当前的水位值;步骤2:将当前的水位值加一;步骤3:将记录的水位值编码进RDMA请求中并发送;步骤4:将请求地址和记录的水位值存入缓存队列中;步骤5:检查网卡完成的发送请求,计算得到已完成请求的水位值;步骤6:判断缓存队列中队头记录的水位值是否小于等于已完成请求的水位值,如果是,则执行步骤7;如果不是,则结束;步骤7:释放队头记录的缓存;步骤8:将当前队头记录移出缓存列队,返回步骤6继续执行。本发明无需进行额外的内存拷贝,具有很小的管理开销,并杜绝了内存污染现象的出现,具有良好的可用性和性能。
-
公开(公告)号:CN106789118B
公开(公告)日:2020-11-17
申请号:CN201611065272.5
申请日:2016-11-28
Applicant: 上海交通大学
Abstract: 本发明提供了一种基于服务等级协议的云计算计费方法,包括步骤1:由用户自主选择计算任务的类型;步骤2:根据任务的类型得到任务的用户服务等级协议要求,即SLA要求;步骤3:云服务商根据任务的类型和SLA要求预估所需的云计算资源,并计算出相应的价格发送给用户确认;步骤4:若用户不接受价格,返回执行步骤1;若用户接受价格,则根据确认的价格进行计费。本发明基于不同云计算任务的服务质量要求进行动态定价,实现云用户可量化服务与价格的有效映射,不需要过度申请资源以保证服务质量,而只需要确定所需的服务等级协议,在解决用户过度申请问题的同时,很好地解决了云计算资源利用低下的问题。
-
公开(公告)号:CN109062929B
公开(公告)日:2020-11-06
申请号:CN201810596030.1
申请日:2018-06-11
Applicant: 上海交通大学
IPC: G06F16/245 , G06F16/2458 , H04L29/08
Abstract: 本发明提供了一种查询任务通信方法及系统,包括:在接收到的查询请求的服务器解析查询请求,将查询请求中的查询语句分解成多个子步骤,子步骤的相关信息属于查询任务的元数据;从多个子步骤的第一个子步骤开始逐步处理查询请求,得到查询中间结果;若下一个子步骤依赖的数据在远端服务器,则将查询中间结果和查询任务的元数据分别通过GPUDirect RDMA和RDMA的方式发送给远端的服务器,远端服务器根据接收到的查询中间结果和查询任务的元数据继续处理查询请求的子步骤。本发明降低了整个通信过程的开销、避免了网络资源的争用且提高了整个查询系统的性能。
-
公开(公告)号:CN106293947B
公开(公告)日:2020-11-06
申请号:CN201610681905.9
申请日:2016-08-17
Applicant: 上海交通大学 , 国网甘肃省电力公司信息通信公司
IPC: G06F9/50
Abstract: 本发明提供了一种虚拟化云环境下GPU‑CPU混合资源分配系统和方法包括注入模块、分配器;注入模块负责设置钩子,并通过睡眠方式限制进程占用资源;分配器负责调用资源分配算法得到资源分配目标值,并将资源分配目标值发送给注入模块。本发明提供了FEA算法与资源分配框架,用以高效地进行多重异构混合资源的动态资源分配。通过这个资源分配的操作,提升资源分配的公平性,同时保证其效率。本发明能够显著提升多个CPU‑GPU多重混合资源需求任务运行时资源分配的公平性与效率。任务在使用分配算法时的公平性,最高有45%的提升。本发明在提升公平性的同时,也通过FEA算法的约束条件,以保证任务运行的效率质量。
-
公开(公告)号:CN111832638A
公开(公告)日:2020-10-27
申请号:CN202010620340.X
申请日:2020-06-30
Applicant: 上海交通大学
Abstract: 本发明公开了一种增强深度残差卷积网络前向传播稳定性系统及方法,涉及深度学习,深度神经网络训练等领域。包括可优化的吸引子向量,衡量吸引子对网络特征吸引力并提供目标吸引子的吸引子网络和二阶优化目标函数。本发明在基于深度神经网络的监督分类任务基础上提出加强深度残差卷积网络及其类似网络前向传播稳定性的吸引子网络,在不改变网络预测时计算参数的情况下,改善了深度残差卷积网络在测试集的分类精度,提升了深度残差卷积网络的泛化性能。
-
公开(公告)号:CN107659626B
公开(公告)日:2020-09-15
申请号:CN201710814016.X
申请日:2017-09-11
Applicant: 上海交通大学
IPC: H04L29/08
Abstract: 本发明提供了一种面向临时元数据的分离存储方法,包括如下步骤:步骤一:数据源发送数据流,服务器接收数据流并识别每条数据对应的元数据;步骤二:服务器将流数据分发到其对应的服务器准备存储;步骤三:对于需要存储在本地的流数据,将其转化为若干键值对,插入到本地键值对存储系统,并记录插入的内存位置等信息;步骤四:将每条数据对应的元数据和键值对插入信息结合,插入到另一个对垃圾回收友好的本地存储系统;步骤五:将元数据和键值对插入信息按照一定策略拷贝到多台服务器上作为缓存。本发明避免删除元数据时造成大量数据搬移,从而提高存储系统工作效率。
-
公开(公告)号:CN109302463B
公开(公告)日:2020-07-14
申请号:CN201811083007.9
申请日:2018-09-17
Applicant: 上海交通大学
Abstract: 本发明提供了一种面向边缘计算的自组云架构与优化方法及系统,包括模型构建步骤:对层次化的无人机系统进行模型构建;适于无限虚拟机资源情形的去中心化计算卸载算法步骤:根据无人机系统的无人机终端带宽满足的条件分别进行博弈决策,达到纳什均衡;适于有限虚拟机资源情形的去中心化计算卸载算法步骤:设计去中心化计算卸载算法进行算法计算。本发明提供了一种分层去中心化的卸载方法,以在保持能效的同时降低通信开销;本发明将层次化无人机系统中的节能计算卸载决策问题建模为一种非合作博弈进行研究,针对无限虚拟机资源、有限虚拟机资源情形设计了去中心化的计算卸载算法,并证明了算法能达到纳什均衡。
-
公开(公告)号:CN111143243A
公开(公告)日:2020-05-12
申请号:CN201911318719.9
申请日:2019-12-19
Applicant: 上海交通大学
IPC: G06F12/0862 , G06F12/0866 , G06N3/04 , G06N3/08
Abstract: 本发明提供了一种基于NVM混合内存的缓存预取方法及系统,包括:步骤M1:识别DRAM和NVMM主内存,并且将DRAM作为NVMM的缓存;步骤M2:根据预设负载类型,采集对应的访存数据,作为训练的数据;步骤M3:搭建特定的LSTM神经网络模型;步骤M4:使用特定的LSTM神经网络模型对训练的数据进行训练;步骤M5:训练后的LSTM神经网络模型,保证存储系统对负载变化的适应性;本发明创新性地采用机器学习的方案,结合提前采集数据,离线训练的方式,完成了对特定负载的高精准度缓存预取,有效提高混合主内存运行时的命中率。
-
公开(公告)号:CN110502337A
公开(公告)日:2019-11-26
申请号:CN201910627734.5
申请日:2019-07-12
Applicant: 上海交通大学
Abstract: 本发明提供了一种针对Hadoop MapReduce中混洗阶段的优化系统,该优化系统以守护进程方式运行在Hadoop MapReduce的工作节点以及主节点中,并使用进程间通信以及远程过程调用的方式与Hadoop MapReduce进行通信。同时提供了一种基于上述优化系统实现的优化方法。本发明所提供的优化系统运行后接管Hadoop MapReduce任务运行中的所有中间数据,通过利用预先合并以及预先混洗的方式,一方面合理利用了Map阶段的空闲网络带宽,另一方面在合并同节点中的中间数据后有效减少小文件读写,从而优化了MapReduce任务的完成时间。
-
公开(公告)号:CN110222238A
公开(公告)日:2019-09-10
申请号:CN201910364317.6
申请日:2019-04-30
Applicant: 上海交通大学
IPC: G06F16/901 , G06F16/903
Abstract: 本发明提供了一种字符串与识别符双向映射的查询方法和系统,构造字典树建立数字类型识别符与字符串名称储存于字典树中的位置信息的一一映射关系;判断接收到的查询请求为正向查询请求或者反向查询请求;若为正向查询请求,通过传统字典树查询方式进行查询,并将识别符查询结果返回给用户;若为反向查询请求,查询该识别符所对应的字符串名称被储存在字典树中的位置信息;根据位置信息从字典树中还原完整的字符串信息,将完整字符串查询结果返回给用户。本发明能够复用字典树中已储存的字符串信息,在保证查询性能同时,显著降低了内存上的开销。
-
-
-
-
-
-
-
-
-