-
公开(公告)号:CN118114727A
公开(公告)日:2024-05-31
申请号:CN202410524057.5
申请日:2024-04-29
Applicant: 北京邮电大学
IPC: G06N3/0495 , G06N3/0455 , G06F18/213 , G06F18/25 , G06F18/40
Abstract: 本申请涉及机器学习技术领域,公开了一种面向边缘设备的多模态处理系统及方法。该系统部署在移动端设备上用于处理目标任务,包括:语音任务、多模态任务、自然语言处理任务及视觉任务;系统通过数据接口接收应用程序发送的服务请求,包括:服务类型及目标数据,其中,目标数据包括以下至少一种模态的数据:语音数据、文本数据、图像数据及传感器数据;系统包括路径控制器及多个执行单元,路径控制器根据服务请求,从多个执行单元中确定目标执行单元;目标执行单元根据服务请求处理目标数据,生成结果数据。本系统能够在移动端设备上处理多模态任务,降低移动端上AI任务的处理时延,保障用户的数据隐私。
-
公开(公告)号:CN119670837A
公开(公告)日:2025-03-21
申请号:CN202311211028.5
申请日:2023-09-19
Applicant: 北京邮电大学
IPC: G06N3/084
Abstract: 一种预训练AI模型在终端应用中微调的方法、系统及装置,终端获取预训练AI模型,及对应所述预训练AI模型的至少一适配器,所述适配器为所述预训练AI模型在适用于预设的终端应用时涉及的子网络结构;所述终端将所述适配器嵌入到所述预训练AI模型中;所述终端将所述终端应用的数据输入到具有所述适配器的预训练AI模型中,进行微调。本申请还预设微调平台,所述微调平台面向预训练AI模型的不同终端应用,生成对应的适配器、及控制所述预训练AI模型及所述适配器的结合及后续对嵌入所述适配器的所述预训练AI模型在终端应用中的微调。本申请实现在终端侧的预训练AI模型的微调,避免终端应用的数据的泄露及节省网络资源。
-
公开(公告)号:CN116708200A
公开(公告)日:2023-09-05
申请号:CN202310719831.3
申请日:2023-06-17
Applicant: 北京邮电大学深圳研究院
IPC: H04L41/14 , H04L41/16 , H04L43/0882
Abstract: 本发明涉及机器学习和计算机网络技术领域,且公开了一种基于非可靠传输协议的联邦训练加速方法,通过设计基于拥塞反馈的非可靠层传输算法解决不确定性丢包下如何最大化完整层的接收率;通过设计一个基于层参数的联邦冻结训练框架保证在参数丢失下联邦训练的模型精度无损。该基于非可靠传输协议的联邦训练加速方法,设计了一种基于非可靠传输协议的可穿戴联邦训练加速技术。其关键思想是直接忽略这些网络侧丢失的参数,而不是对网络传输协议进行复杂的检测和重传操作,从而大大提高端到端网络吞吐量;然后,基于机器学习训练的参数冗余特性,接收端用前一轮参数替换网络丢包,并采用层冻结训练技术实现联邦学习在参数丢失下的高精度训练。
-
公开(公告)号:CN112929223A
公开(公告)日:2021-06-08
申请号:CN202110249146.X
申请日:2021-03-08
Applicant: 北京邮电大学
Abstract: 本发明实施例公开了一种基于联邦学习方式训练神经网络模型的方法及系统,本发明实施例在训练神经网络模型时,云服务器选取广域网内已有的至少一个局域网,云服务器将当前神经网络模型发送给所述局域网,由所述局域网在局域网内对该神经网络模型进行多个本地参与设备的联邦学习,并聚合为所述局域网改进的神经网络模型后,提供给云服务器;云服务器将接收到的局域网改进的神经网络模型进行聚合后,得到全局改进的该神经网络模型。这样,本发明实施例就可以在减少跨广域网通信量的前提下,实现基于联邦学习方式训练神经网络模型,提高训练速度及节省成本。
-
公开(公告)号:CN115292037A
公开(公告)日:2022-11-04
申请号:CN202210872704.2
申请日:2022-07-21
Applicant: 北京邮电大学
Abstract: 本发明提供了一种边缘网络下的任务可靠性保证方法及系统,涉及边缘网络技术领域。方法包括:首先,基于终端设备的移动性要求,电量监控要求以及CPU使用率要求,择出目标终端设备。然后,每个目标终端设备接收目标边缘服务器下发的初始模型,并根据本地存储的样本数据集,对初始模型进行本地训练。最后目标边缘服务器接收每个目标终端设备上传的经过本地训练得到的模型参数,已对目标边缘服务器中的全局参数进行更新。在本申请中,通过选择在设备选取过程中,基于多种要求选择出具有最大可靠性的目标终端设备,并在模型参数上传的过程进行监控和约束,从而保证了边缘网络下执行的任务的可靠性。
-
公开(公告)号:CN114611689A
公开(公告)日:2022-06-10
申请号:CN202210100881.9
申请日:2022-01-27
Applicant: 北京邮电大学
Abstract: 本发明提供了一种低精度整型表示下的联邦学习方法,包括:服务器对全局浮点数模型进行初始化,并选择终端;将全局浮点数模型量化为整型的全局整型模型;服务器将全局整型模型发送至终端;终端利用训练数据对获取的全局整型模型进行训练,得到整型的低精度模型;终端将低精度模型传输至服务器;服务器对全局整型模型以及低精度模型反量化,利用反量化后的全局整型模型以及反量化后的低精度模型更新全局浮点数模型;重复上述初始化之后的步骤直至所述全局浮点数模型收敛或达到预设的训练次数;本发明通过设计一个全整型表示的神经网络训练算法解决终端浮点数运算的能耗问题并通过设计一个低精度模型聚合算法解决低精度联邦学习的精度问题。
-
公开(公告)号:CN114611689B
公开(公告)日:2025-04-04
申请号:CN202210100881.9
申请日:2022-01-27
Applicant: 北京邮电大学
Abstract: 本发明提供了一种低精度整型表示下的联邦学习方法,包括:服务器对全局浮点数模型进行初始化,并选择终端;将全局浮点数模型量化为整型的全局整型模型;服务器将全局整型模型发送至终端;终端利用训练数据对获取的全局整型模型进行训练,得到整型的低精度模型;终端将低精度模型传输至服务器;服务器对全局整型模型以及低精度模型反量化,利用反量化后的全局整型模型以及反量化后的低精度模型更新全局浮点数模型;重复上述初始化之后的步骤直至所述全局浮点数模型收敛或达到预设的训练次数;本发明通过设计一个全整型表示的神经网络训练算法解决终端浮点数运算的能耗问题并通过设计一个低精度模型聚合算法解决低精度联邦学习的精度问题。
-
公开(公告)号:CN114650227B
公开(公告)日:2023-08-18
申请号:CN202210100788.8
申请日:2022-01-27
Applicant: 北京邮电大学
Abstract: 本发明提供了一种分层联邦学习场景下的网络拓扑构建算法,包括以下步骤:云服务器初始化,获取参与训练的局域网信息、初始全局模型以及多个终端设备,根据局域网信息对多个终端设备进行分组,并选择参与训练的终端设备;对终端设备计算不同的分布式通信架构的单轮聚合预测时长,选取最短时长的架构作为最优拓扑结构;云服务器将当前全局模型下发给每个分组,并基于最优拓扑结构对全局模型进行训练,得到全局模型更新量并经多次聚合后上报给云服务器;云服务器根据每个分组上报的训练结果更新全局模型;本发明能够减少全局模型上传云服务器的通信次数,通过在局域网内进行部分聚合和本地更新的方式,加速联邦学习的收敛并减少了通信成本。
-
公开(公告)号:CN112929223B
公开(公告)日:2022-09-23
申请号:CN202110249146.X
申请日:2021-03-08
Applicant: 北京邮电大学
Abstract: 本发明实施例公开了一种基于联邦学习方式训练神经网络模型的方法及系统,本发明实施例在训练神经网络模型时,云服务器选取广域网内已有的至少一个局域网,云服务器将当前神经网络模型发送给所述局域网,由所述局域网在局域网内对该神经网络模型进行多个本地参与设备的联邦学习,并聚合为所述局域网改进的神经网络模型后,提供给云服务器;云服务器将接收到的局域网改进的神经网络模型进行聚合后,得到全局改进的该神经网络模型。这样,本发明实施例就可以在减少跨广域网通信量的前提下,实现基于联邦学习方式训练神经网络模型,提高训练速度及节省成本。
-
公开(公告)号:CN114650227A
公开(公告)日:2022-06-21
申请号:CN202210100788.8
申请日:2022-01-27
Applicant: 北京邮电大学
Abstract: 本发明提供了一种分层联邦学习场景下的网络拓扑构建算法,包括以下步骤:云服务器初始化,获取参与训练的局域网信息、初始全局模型以及多个终端设备,根据局域网信息对多个终端设备进行分组,并选择参与训练的终端设备;对终端设备计算不同的分布式通信架构的单轮聚合预测时长,选取最短时长的架构作为最优拓扑结构;云服务器将当前全局模型下发给每个分组,并基于最优拓扑结构对全局模型进行训练,得到全局模型更新量并经多次聚合后上报给云服务器;云服务器根据每个分组上报的训练结果更新全局模型;本发明能够减少全局模型上传云服务器的通信次数,通过在局域网内进行部分聚合和本地更新的方式,加速联邦学习的收敛并减少了通信成本。
-
-
-
-
-
-
-
-
-