-
公开(公告)号:CN117880796A
公开(公告)日:2024-04-12
申请号:CN202311828936.9
申请日:2023-12-28
Applicant: 北京邮电大学
Abstract: 本发明提供了一种UPF选取方法,应用于NWDAF,该方法包括:接收SMF发送的UPF选取请求;其中,所述SMF是在UE发起会话请求并被响应于所述会话请求的AMF选择用来构建和管理所述会话后发送的所述UPF选取请求;响应于所述UPF选取请求,根据预先基于核心网数据构建的通信知识图谱选取目标UPF,并将所述目标UPF信息返回给所述SMF,以使所述SMF发起对所述目标UPF的配置,使得所述目标UPF执行UPF实例配置,并将上下文信息同步至所述SMF以完成UPF实例部署。本发明缩短UPF的决策过程,能够快速、有效的完成用户面路径规划及会话建立,从而提高会话建立效率。
-
公开(公告)号:CN115314409B
公开(公告)日:2024-02-06
申请号:CN202210851138.7
申请日:2022-07-20
Applicant: 北京邮电大学
Abstract: 本发明提供了一种网络状态信息获取方法及系统,涉及通信技术领域。方法包括:首先,第一用户面设备解析第一GTP‑U报文,并根据控制面设备预先下发的INT指示收集所述第一用户面设备的第一INT元数据,生成第二GTP‑U报文,并发送至第二用户面设备,然后,第二用户面设备解析第二GTP‑U报文,并根据INT指示收集第二用户面设备的第二INT元数据,并将第一INT元数据和第二INT元数据,发送给控制面设备,最后,控制面设备接收第一INT元数据和第二INT元数据,并储存在预设数据库中。在本申请中,通过收集各个用户面设备的INT元数据,实现了带内网络遥测在核心网中的应用,并且基于INT元数据能够实现高精度、多种类的业务流量的网络状态信
-
公开(公告)号:CN116939010A
公开(公告)日:2023-10-24
申请号:CN202210323236.3
申请日:2022-03-29
Applicant: 中国移动通信有限公司研究院 , 北京邮电大学 , 中国移动通信集团有限公司
IPC: H04L67/51 , H04L67/563 , G06F9/48
Abstract: 本申请实施例提供一种服务迁移方法、装置、设备及可读存储介质,该方法包括:获取第一信息,所述第一信息用于所述核心网网元从候选的边缘节点中选择目的节点;其中,所述目的节点用于在服务迁移过程中启动所述第一应用,并作为从属节点与作为主节点的源节点从云端服务器获取所述第一应用的状态信息,所述源节点和所述目的节点均向终端提供所述第一应用的服务;所述目的节点还用于在接收到所述终端的指示之后获取控制权限作为主节点向所述终端提供所述第一应用的服务;其中,所述主节点能够从所述终端接收到所述第一应用的控制信号,所述从属节点不接收所述终端发送的所述第一应用的控制信号。
-
公开(公告)号:CN116708200A
公开(公告)日:2023-09-05
申请号:CN202310719831.3
申请日:2023-06-17
Applicant: 北京邮电大学深圳研究院
IPC: H04L41/14 , H04L41/16 , H04L43/0882
Abstract: 本发明涉及机器学习和计算机网络技术领域,且公开了一种基于非可靠传输协议的联邦训练加速方法,通过设计基于拥塞反馈的非可靠层传输算法解决不确定性丢包下如何最大化完整层的接收率;通过设计一个基于层参数的联邦冻结训练框架保证在参数丢失下联邦训练的模型精度无损。该基于非可靠传输协议的联邦训练加速方法,设计了一种基于非可靠传输协议的可穿戴联邦训练加速技术。其关键思想是直接忽略这些网络侧丢失的参数,而不是对网络传输协议进行复杂的检测和重传操作,从而大大提高端到端网络吞吐量;然后,基于机器学习训练的参数冗余特性,接收端用前一轮参数替换网络丢包,并采用层冻结训练技术实现联邦学习在参数丢失下的高精度训练。
-
公开(公告)号:CN113852693A
公开(公告)日:2021-12-28
申请号:CN202111127108.3
申请日:2021-09-26
Applicant: 北京邮电大学
IPC: H04L29/08
Abstract: 本申请公开了一种边缘计算服务的迁移方法,其特征在于,在云计算中心设置若干中心控制节点进行迁移服务的锁定,在边缘节点上设置使用sidecar模式部署的用户接入层管理,方法包括:迁移前的第一边缘节点接收用户终端上报的自身状态和向第二边缘节点的服务迁移请求,当确定允许进行服务迁移后,所述第一边缘节点获取第二边缘节点的地址发送给所述用户终端,所述中心控制节点锁定所述服务迁移,拒绝服务迁移过程中所述用户终端相同方向上其他服务的迁移请求;所述第一边缘节点中断要迁移的服务,并将该服务的迁移数据发送给所述第二边缘节点,用于所述第二边缘节点在接收到所述用户终端的服务请求后恢复中断的服务。应用本申请,能够大大降低迁移时延,并保证迁移数据的一致性。
-
公开(公告)号:CN112966811A
公开(公告)日:2021-06-15
申请号:CN202110155686.1
申请日:2021-02-04
Applicant: 北京邮电大学
Abstract: 本发明实施例公开了一种在MTL卷积神经网络中任务冲突的解决方法及网络,在MTL卷积神经网络的共享浅层中包括训练得到的调制模块,所述调制模块针对不同任务在共享浅层中确定对应的子网结构,将任务的任务信息输入到对应的子网结构进行卷积处理,及经过调制模块的调制后,再输出到该任务的任务特定层处理后,输出任务结果,采用MTL卷积神经网络损失函数的梯度反向传播方式对处理结果进行反向传播,调整MTL神经网络的参数,其中,调制模块的训练过程与共享浅层的训练采用多任务并行学习方法同时进行,对上述过程循环多次进行,直到MTL卷积神经网络的参数收敛为止,得到训练好的MTL卷积神经网络。这样,避免多任务并行学习的冲突,提高训练得到的MTL卷积神经网络处理不同任务时的效果。
-
公开(公告)号:CN112929223A
公开(公告)日:2021-06-08
申请号:CN202110249146.X
申请日:2021-03-08
Applicant: 北京邮电大学
Abstract: 本发明实施例公开了一种基于联邦学习方式训练神经网络模型的方法及系统,本发明实施例在训练神经网络模型时,云服务器选取广域网内已有的至少一个局域网,云服务器将当前神经网络模型发送给所述局域网,由所述局域网在局域网内对该神经网络模型进行多个本地参与设备的联邦学习,并聚合为所述局域网改进的神经网络模型后,提供给云服务器;云服务器将接收到的局域网改进的神经网络模型进行聚合后,得到全局改进的该神经网络模型。这样,本发明实施例就可以在减少跨广域网通信量的前提下,实现基于联邦学习方式训练神经网络模型,提高训练速度及节省成本。
-
公开(公告)号:CN115334077B
公开(公告)日:2024-12-13
申请号:CN202210947950.X
申请日:2022-08-09
Applicant: 北京邮电大学
IPC: H04L67/10 , H04L41/12 , H04L41/0893 , H04L41/0803
Abstract: 本申请公开了一种跨广域网的应用管控方法及系统,在跨广域网的网络中设置统一管控功能实体,所述统一管控功能实体收集应用管控涉及的信息,基于所述信息进行面向应用及网络功能实体的资源计算及节点部署的分析,生成配置策略,根据所述配置策略在所述计算网络中进行应用及网络功能实体的资源分配及节点部署。这样,本申请实施例由所设置的专门实体,基于收集的应用管控涉及的信息,并基于信息进行配置策略的生成,据此实现了跨广域网的应用管控,且保证所提供的应用的服务质量。
-
公开(公告)号:CN114866476B
公开(公告)日:2023-06-30
申请号:CN202210376871.8
申请日:2022-04-12
Applicant: 北京邮电大学深圳研究院
Abstract: 本发明涉及网络传输技术领域,且公开了一种无损高效的RDMA传送方法,所述传送方法包括RDMA数据包重传和RDMA智能流控机制,所述RDMA智能流控机制包括有链路状态反馈机制和流量控制机制;所述RDMA数据包重传包括以下步骤:S1、发送节点维护发送窗口,记录当前待发送及已发送为收到确认的数据包编号;S2、依窗口记录的编号顺序依次向接收方发送数据包;S3、接收方收到数据后,构建确认数据包。该无损高效的RDMA传送方法,通过研究在广域分布式网络环境下,将网络拓扑、流量特征、机器学习的传输特征实现有机的整合,提出一种无损高效的RDMA传送技术,通过精细化拥塞控制与流控制策略来最大化带宽利用率解决数据处理效率低和传输时延过长问题。
-
公开(公告)号:CN116127018A
公开(公告)日:2023-05-16
申请号:CN202310208694.7
申请日:2023-03-07
Applicant: 北京邮电大学
IPC: G06F16/33 , G06F18/214 , G06F18/241
Abstract: 本申请实施例公开了一种面向自然语言模型的联邦小样本学习方法、系统及设备,在对自然语言模型进行微调时,由云端服务器控制多个端侧设备,采用渐进式数据增强协同方式进行,即采用基于伪标签方式及提示学习方式进行融合的联邦小样本学习方式与联邦学习方式协同进行,且在微调过程中不断更新最优的增强策略,从而使得各个端侧设备采用的训练数据包含少量的有标签的样本就可以微调得到精确率高的自然语言模型。因此,本申请实施例可以采用少量的有标签的训练数据微调一个精确率高的自然语言模型,提高微调后的自然语言模型的精确率。
-
-
-
-
-
-
-
-
-