-
公开(公告)号:CN112383481A
公开(公告)日:2021-02-19
申请号:CN202011205094.8
申请日:2020-11-02
Applicant: 科大讯飞股份有限公司
IPC: H04L12/741 , H04L29/12
Abstract: 本发明实施例提供一种流表生成和端口转发方法、节点、电子设备和存储介质,其中流表生成方法包括:获取端口映射信息,端口映射信息包括弹性地址与内网地址之间的映射关系;基于端口映射信息,生成端口转发逻辑流表,以供网络节点将端口转发逻辑流表转换为OpenFlow流表中的OpenFlow流表项用于端口转发,端口转发逻辑流表包括针对弹性地址中弹性端口的双向转发规则。本发明实施例提供的流表生成和端口转发方法、节点、电子设备和存储介质,为基于OpenFlow的SDN架构提供了网络地址端口转发功能,还提高了网络设置的效率。
-
公开(公告)号:CN112271722A
公开(公告)日:2021-01-26
申请号:CN202011024747.2
申请日:2020-09-25
Applicant: 科大讯飞股份有限公司
Abstract: 本申请公开了一种节能调节方法、系统及电子设备、存储装置,其中,节能调节方法包括:在多路供电线路负载的互为备用设备中,选择至少一路供电线路负载的至少一个互为备用设备,作为目标迁移设备;提示将目标迁移设备迁移至其他供电线路;其中,互为备用设备中至少包括属于制冷系统的设备。上述方案,能够降低电力成本。
-
公开(公告)号:CN112162707A
公开(公告)日:2021-01-01
申请号:CN202011101715.8
申请日:2020-10-15
Applicant: 科大讯飞股份有限公司
IPC: G06F3/06
Abstract: 本发明实施例提供一种用于分布式存储系统的存储方法、电子设备及存储介质,分布式存储系统包括元数据中心和多个存储集群,该方法包括:获取待存储对象的存储请求,根据第一URL从元数据中心查找待存储对象存放的RealBucket,利用RealBucket所属的第一存储集群的集群类型重新组织所述第一URL以形成第二URL,并基于第二URL将待存储对象存放到第一存储集群。根据第一URL从元数据中心查找待存储对象存放的RealBucket,不仅可以快速确定出待存储对象存放的RealBucket,而且由于存储过程中并不需要引入待存储对象的数据索引,可以大大节约元数据的存储空间,降低存储规模以及复杂度。
-
公开(公告)号:CN112035428A
公开(公告)日:2020-12-04
申请号:CN202010954902.4
申请日:2020-09-11
Applicant: 科大讯飞股份有限公司
IPC: G06F16/182 , G06F16/172 , G06F16/14
Abstract: 本发明实施例提供一种分布式存储系统、方法、装置、电子设备和存储介质,该系统包括:热缓存资源池,用于缓存文件,并将所述文件置于合并队列;冷存储资源池,用于存储合并数据,所述合并数据是所述合并队列中文件数量达到预设阈值后合并而成;元数据存储资源池,用于存储所述文件的元数据的索引信息、合并后的元数据以及自定义映射信息中的至少一种。本发明实施例提供的系统、方法、装置、电子设备和存储介质,解决了写入性能瓶颈和文件直接落盘的膨胀率问题,并且从合并规模层面上减少了合并操作带来的操作开销,同时保证了合并数据的大小可控,有助于进一步消除落盘膨胀的问题。
-
公开(公告)号:CN106776014B
公开(公告)日:2020-08-18
申请号:CN201611070675.9
申请日:2016-11-29
Applicant: 科大讯飞股份有限公司
Abstract: 本发明公开了一种异构计算中的并行加速方法及系统,该方法包括:预先根据GPU的个数确定GPU之间数据传输的拓扑结构;所述拓扑结构中的各GPU获取当前任务,并对所述当前任务中的数据进行计算,得到对应当前任务的计算结果;各GPU将自己得到的对应当前任务的计算结果分享给所述拓扑结构中的所有其它GPU;各GPU得到所述拓扑结构中的所有其它GPU的计算结果后,开始执行下一任务。利用本发明,可以在提高GPU并行计算能力的同时,降低各GPU节点的带宽需求。
-
公开(公告)号:CN109919315A
公开(公告)日:2019-06-21
申请号:CN201910188467.6
申请日:2019-03-13
Applicant: 科大讯飞股份有限公司
IPC: G06N5/04
Abstract: 本申请提供了一种神经网络的前向推理方法、装置、设备及存储介质,其中,方法包括:将目标神经网络划分为多个子网络,任一子网络包括目标神经网络的至少一个隐层,在推理平台的硬件设备上创建多个子网络分别对应的推理实例和推理引擎,基于多个子网络分别对应的推理实例和推理引擎,对目标神经网络进行前向推理。由于一个推理引擎只负责神经网络的一部分隐层,同一时刻可以有多个数据输入在不同的推理引擎内并行执行,因此,本申请提供的前向推理方法具有较高的推理效率和数据吞吐量,且推理平台的硬件资源得到充分利用。
-
公开(公告)号:CN106156851A
公开(公告)日:2016-11-23
申请号:CN201610483365.3
申请日:2016-06-24
Applicant: 科大讯飞股份有限公司
IPC: G06N3/08
CPC classification number: G06N3/08
Abstract: 本发明公开了一种面向深度学习业务的加速装置,用于对服务器中的待处理数据进行深度学习计算,包括:设置于服务器端的网卡、与所述服务器通过总线连接的计算控制模块、以及第一存储器和第二存储器;所述计算控制模块为可编程逻辑器件,包括:控制单元、数据存储单元、逻辑存储单元、以及分别与所述网卡、第一存储器和第二存储器通信的总线接口、第一通信接口和第二通信接口;所述逻辑存储单元用于存储深度学习控制逻辑;所述第一存储器用于存储网络各层的权重数据和偏置数据。利用本发明,可以有效提高计算效率,提升性能功耗比。
-
-
-
-
-
-