-
公开(公告)号:CN105516728A
公开(公告)日:2016-04-20
申请号:CN201510933636.6
申请日:2015-12-15
Applicant: 华中科技大学
IPC: H04N19/436 , H04N19/593 , H04N19/11 , H04N19/147
Abstract: 本发明公开了一种H.265/HEVC中8x8子宏块的并行帧内预测方法,包括以下步骤:统一帧内预测公式形式、建立系数表和参考位置表以及并行帧内预测的具体执行步骤,统一帧内预测公式形式与建立系数表和参考位置表是根据CUDA和帧内预测计算公式的特性制定而成的,更加有利于一个8x8子宏块块中64个待预测像素和相应的35种预测模式通过统一的预测公式进行预测,满足了CUDA多线程单指令多数据流的需求,实现了帧内预测子宏块中细粒度并行,消除了影响并行算法性能的大量分支语句。本发明在帧内预测过程中实现了像素级并行,可以有效地利用GPU中众核资源加速帧内预测过程,缩短编码时间。
-
公开(公告)号:CN103095598B
公开(公告)日:2015-07-29
申请号:CN201210550330.9
申请日:2012-12-17
Applicant: 华中科技大学
IPC: H04L12/803 , H04L29/08
Abstract: 本发明公开了一种大规模集群环境下的监控数据聚合方法,包括:所有监控节点向主控节点发起注册请求,注册请求中携带有该节点所要采集的数据,并按顺序从主控节点分别获得一个唯一的节点编号Ni,主控节点编号设置为N0,主控节点根据聚合节点负载公式以及约束条件计算聚合树所需要的聚合节点个数,并根据聚合节点负载均衡的原则从所有监控节点中选取合适的聚合节点,根据聚合节点构建聚合树,主控节点判断聚合树中是否存在聚合节点失效或者集群规模是否发生改变,如果是则主控节点对聚合节点的失效或者集群规模的变化做出实时处理。本发明的方法可以克服传统的监控数据聚合导致的集群节点负载不均衡,而且能够动态的自适应集群规模的伸缩变化。
-
公开(公告)号:CN102231738B
公开(公告)日:2014-07-23
申请号:CN201110172845.5
申请日:2011-06-24
Applicant: 华中科技大学
IPC: H04L29/06
Abstract: 本发明提供了一种虚拟实验平台的数据通信方法,该数据通信方法首先,加载虚拟实验程序,创建虚拟实验程序到服务端的连接;之后,将虚拟实验程序的请求经所述连接发送到服务端;最后,服务端接收请求并进行处理,将处理结果经所述连接发送到虚拟实验程序。所述服务端为应用服务端、计算服务端或存储服务端中的至少一个。该数据通信方法通过采用统一的数据接口,能够保证虚拟实验的数据实时传输。同时本发明中所述计算服务端与虚拟实验程序之间创建的连接为TCP连接或者TCP虚拟连接,并且采用数据传输流量控制机制,减轻了中心节点的负载,提高了计算服务的服务能力。
-
公开(公告)号:CN103095598A
公开(公告)日:2013-05-08
申请号:CN201210550330.9
申请日:2012-12-17
Applicant: 华中科技大学
IPC: H04L12/803 , H04L29/08
Abstract: 本发明公开了一种大规模集群环境下的监控数据聚合方法,包括:所有监控节点向主控节点发起注册请求,注册请求中携带有该节点所要采集的数据,并按顺序从主控节点分别获得一个唯一的节点编号Ni,主控节点编号设置为N0,主控节点根据聚合节点负载公式以及约束条件计算聚合树所需要的聚合节点个数,并根据聚合节点负载均衡的原则从所有监控节点中选取合适的聚合节点,根据聚合节点构建聚合树,主控节点判断聚合树中是否存在聚合节点失效或者集群规模是否发生改变,如果是则主控节点对聚合节点的失效或者集群规模的变化做出实时处理。本发明的方法可以克服传统的监控数据聚合导致的集群节点负载不均衡,而且能够动态的自适应集群规模的伸缩变化。
-
公开(公告)号:CN102622262A
公开(公告)日:2012-08-01
申请号:CN201210006613.7
申请日:2012-01-09
Applicant: 华中科技大学
Abstract: 本发明公开了一种基于modelica建模语言的分布式实时交互仿真系统,是结合Modelica建模语言支持多领域仿真建模的特点,并根据Modelica建模语言在实时交互仿真方面的薄弱环节,结合现有HLA仿真体系结构而提出。该系统通过中心服务器将异构的多台计算机通过具有统一的通信标准、规范和协议的高速网络互联起来,以构成一个一体化仿真环境。系统借助客户端、中心服务器、子计算服务器、仿真器调度接口和仿真器五个功能模块来实现。多个客户端和中心服务器通过TCP协议进行通信。系统的核心是提供了统一的仿真器调度接口。本发明使得开发新的仿真实验更容易,降低了开发难度,提高了系统的可扩展性。
-
公开(公告)号:CN101562737B
公开(公告)日:2010-12-29
申请号:CN200910062133.0
申请日:2009-05-19
Applicant: 华中科技大学
Abstract: 本发明公开了一种对等直播系统中多码率调度方法,步骤为:①广播源将视频源编码成多个码率,向服务器注册视频源的地址以及视频源的码率数N。②节点加入到服务器的某个频道中,获取该频道的地址,以及该频道的码率数N,并根据码率数来设置节点自己的缓冲区。③节点自动或手动从N个码率中选择一个码率m加入频道来观看节目。④节点根据自己当前码率的缓冲区填充情况,在网络中向当前码率的邻居节点请求数据,调度当前码率的数据。⑤节点在调度数据的同时,检测当前码率的缓冲情况,以此来作为切换码率的依据。
-
公开(公告)号:CN109635945B
公开(公告)日:2022-12-02
申请号:CN201811389548.4
申请日:2018-11-21
Applicant: 华中科技大学
IPC: G06N3/08 , G06V10/764
Abstract: 本发明公开了一种用于图像分类的深度神经网络的训练方法,在神经网络的训练过程中,对隐藏层的类型进行划分,根据特征图迁移成本和计算成本的大小关系,将神经网络中的隐藏层分为计算敏感型层和迁移敏感型层,由于计算敏感型层的特征图的计算成本较高,故对其使用迁移方式处理,在降低内存成本的同时保持较小的性能开销,同理,对迁移敏感型层使用重新计算方式处理特征图。对于后向计算过程中的梯度图,使用引用计数方式跟踪每个梯度图的依赖关系,当其引用计数为0时,将其使用的内存空间回收并留给其他梯度图复用。通过对特征图和梯度图的优化,与标准的反向传播算法相比,能够显著降低神经网络训练时的内存成本,同时保持较小的性能开销。
-
公开(公告)号:CN110942138B
公开(公告)日:2022-02-15
申请号:CN201911111873.9
申请日:2019-11-13
Applicant: 华中科技大学
Abstract: 本发明公开了一种混合内存环境下深度神经网络的训练方法和系统,属于深度学习技术领域。本发明基于NVRAM的读特性,将大量的训练数据缓存在NVRAM中,提高神经网络获取数据的速度。本发明通过将原本由GPU计算的训练数据分成两部分,分别由CPU和GPU并行计算,利用GPU和CPU的计算能力,采用两个神经网络进行训练,在利用CPU的算力的同时减少了拷贝到GPU内存的数据量,通过提高计算的并行度来提高神经网络的训练速度。本发明加权平均后的网络参数快照保存在NVRAM中,采用异步备份的方式,在数据写入NVRAM的过程中,不影响神经网络训练数据的速度,减少了NVRAM写速度对训练的影响。
-
公开(公告)号:CN110942138A
公开(公告)日:2020-03-31
申请号:CN201911111873.9
申请日:2019-11-13
Applicant: 华中科技大学
Abstract: 本发明公开了一种混合内存环境下深度神经网络的训练方法和系统,属于深度学习技术领域。本发明基于NVRAM的读特性,将大量的训练数据缓存在NVRAM中,提高神经网络获取数据的速度。本发明通过将原本由GPU计算的训练数据分成两部分,分别由CPU和GPU并行计算,利用GPU和CPU的计算能力,采用两个神经网络进行训练,在利用CPU的算力的同时减少了拷贝到GPU内存的数据量,通过提高计算的并行度来提高神经网络的训练速度。本发明加权平均后的网络参数快照保存在NVRAM中,采用异步备份的方式,在数据写入NVRAM的过程中,不影响神经网络训练数据的速度,减少了NVRAM写速度对训练的影响。
-
公开(公告)号:CN103747250B
公开(公告)日:2016-08-17
申请号:CN201310740320.6
申请日:2013-12-28
Applicant: 华中科技大学
IPC: H04N19/103 , H04N19/436 , H04N19/176
Abstract: 本发明公开了一种H.264/AVC中4x4子宏块的并行帧内预测方法,包括以下步骤:统一帧内预测公式、参考值数组、参考位置表和并行帧内预测的具体执行步骤,统一帧内预测公式是根据CUDA和帧内预测计算公式的特性改进而成的,通过将9种预测模式对应的预测公式变换成一个计算公式,满足了CUDA多线程单指令多数据流的需求,实现了帧内预测子宏块中细粒度并行,参考值数组及参考位置表是为了配合统一帧内预测公式而设计的,完全消除了影响并行算法性能的大量分支语句。本发明在帧内预测过程中实现了像素级并行,可以有效地利用GPU中众核资源加速帧内预测过程,缩短编码时间。
-
-
-
-
-
-
-
-
-