数据处理方法、装置、计算机设备和可读存储介质

    公开(公告)号:CN119536992A

    公开(公告)日:2025-02-28

    申请号:CN202411484707.4

    申请日:2024-10-23

    Inventor: 赵倩颖 卫敏 雷波

    Abstract: 本申请涉及数据处理技术领域,特别是涉及一种数据处理方法、装置、计算机设备和可读存储介质。该方法包括:获取算力需求方的待处理数据和待处理数据对应的传输时效需求;确定处理待处理数据所需的算力需求资源;从算力网络的各候选算力节点中,选择满足算力需求资源的目标算力节点;获取目标算力节点的至少一个可用时段,并根据目标算力节点的至少一个可用时段,确定满足传输时效需求的预约传输时段;在预约传输时段内,将待处理数据传输至目标算力节点。

    网络接入方法、装置、通信设备和计算机可读存储介质

    公开(公告)号:CN118984344A

    公开(公告)日:2024-11-19

    申请号:CN202410974920.7

    申请日:2024-07-19

    Abstract: 本申请涉及一种网络接入方法、装置、通信设备和计算机可读存储介质。所述方法包括:响应于用户通过终端发起的网络连接请求,终端向服务器发送携带有第一字段的DHCP报文,并接收服务器根据所述DHCP报文生成的反馈报文,在反馈报文中携带有与第一字段匹配的字段值的情况下,从反馈报文的第二字段中,获取IPv6配置参数,并通过IPv6配置参数配置IPv6单栈环境,以接入IPv6单栈网络环境;另外在反馈报文中未携带有与所述第一字段匹配的字段值的情况下,配置双栈环境,以接入双栈网络环境。采用本方法能够提高网络接入灵活性和效率,同时降低运维成本,为用户提供更好的网络连接体验。

    资源处理方法、装置、设备、可读存储介质和程序产品

    公开(公告)号:CN118540328A

    公开(公告)日:2024-08-23

    申请号:CN202410596541.9

    申请日:2024-05-14

    Abstract: 本申请涉及一种资源处理方法、装置、设备、可读存储介质和程序产品。所述方法包括:首先,向部署有多个算力节点的算力网络发送目标请求报文,然后,接收目标算力节点响应于目标请求报文返回的包含了目标算力节点的标识信息的响应报文,最后,基于目标算力节点的标识信息,对目标算力节点执行处理流程,其中,处理流程包括算力节点新增流程或者算力节点退出流程。采用本方法能够实现对算力节点自动执行算力节点新增流程或者算力节点退出流程,不需要人工进行算力节点的新增操作,因此效率更高。

    分布式训练的通信方法、系统和相关设备

    公开(公告)号:CN116708440A

    公开(公告)日:2023-09-05

    申请号:CN202310833774.1

    申请日:2023-07-07

    Inventor: 卫敏 吕航 雷波

    Abstract: 本发明公开了一种分布式训练的通信方法、系统和相关设备,涉及分布式学习领域。分布式训练的通信方法,包括:中心节点生成下发数据包,其中,下发数据包包括中心节点更新后的模型的信息,并且下发数据包的分段路由头包括多个计算节点对应的段列表,其中的每个段列表包括相应的计算节点的地址以及训练指示;中心节点将下发数据包发送给下一跳设备。中心节点通过一次下发过程,即可使得多个计算节点获取到更新后的模型的信息。因此,本发明的实施例能够在分布式训练的过程中,降低对带宽的占用、节约资源,降低了分布式训练过程中的开销。

    数据处理方法、装置、计算机设备和存储介质

    公开(公告)号:CN118984310A

    公开(公告)日:2024-11-19

    申请号:CN202410978792.3

    申请日:2024-07-22

    Inventor: 赵倩颖 卫敏 雷波

    Abstract: 本申请涉及算力网络技术领域,特别是涉及一种数据处理方法、装置、计算机设备和存储介质。方法包括:在基于至少一个候选计算时段中的目标计算时段与算力消费方建立业务交互关系的情况下,若获取到算力消费方发送的待处理数据,则验证当前时间是否位于目标计算时段之内;若是,则对算力消费方发送的待处理数据进行数据处理,得到目标数据;向算力消费方发送目标数据。本申请实现了对算力资源的可计算时段进行充分利用,提高算力资源在可计算时段内的算力利用率,防止部分时段的算力资源存在空闲状态,避免算力提供方的算力资源存在资源浪费的情况。

    联邦学习方法、装置、电子设备和计算机可读存储介质

    公开(公告)号:CN117350370A

    公开(公告)日:2024-01-05

    申请号:CN202311287822.8

    申请日:2023-10-07

    Abstract: 本申请提供一种联邦学习方法、装置、电子设备和计算机可读存储介质,涉及计算机与互联网技术领域。该方法包括:获取多个参与节点的算力信息;根据算力信息确定各个参与节点训练目标网络模型的训练时长;根据训练时长对多个参与节点进行分组处理以生成多个参与节点分组,其中每个参与节点分组对应的训练总时长相等;将目标网络模型下发给各个参与节点分组,以便各个参与节点分组中对目标网络模型进行串行训练;从各个参与节点分组接收串行训练完成后的目标网络模型,以便对各个参与节点分组上传的目标网络模型进行参数聚合。本申请实施例可以减少联邦学习过程中对通信资源的占用。

Patent Agency Ranking