-
公开(公告)号:CN119539140A
公开(公告)日:2025-02-28
申请号:CN202411403789.5
申请日:2024-10-09
Applicant: 北京邮电大学 , 国网数字科技控股有限公司 , 国网江苏省电力有限公司
IPC: G06Q10/04 , G06Q50/26 , G06N3/0442 , G06N3/08
Abstract: 本发明提供一种基于LSTM和自注意力的碳排放预测方法和系统,预测模型训练方法为:获取训练样本集,将训练样本输入初始碳排放预测模型,该模型包括长短时记忆层、自注意力层和线性层。利用长短时记忆层提取并输出每个影响因素对应的有效关键信息,将每个影响因素对应的有效关键信息输入至自注意力层,输出每个影响因素与其自身之外其他影响因素之间的关联信息。将每个影响因素对应的关联信息进行整合并输入线性层,输出碳排放预测结果。基于预测结果与真实标签的差距构建损失函数,最小化损失以更新模型参数直至达到预设训练轮数,获得训练后的碳排放预测模型。本发明综合考虑多种因素,捕捉数据序列的长期依赖关系,实现更准确的碳排放预测。
-
公开(公告)号:CN117313901B
公开(公告)日:2024-04-02
申请号:CN202311597925.4
申请日:2023-11-28
Applicant: 北京邮电大学 , 国网数字科技控股有限公司 , 国网江苏省电力有限公司
IPC: G06N20/00
Abstract: 本发明提供一种基于多任务聚类联邦个性学习的模型训练方法及装置,中央服务器向各客户端下发上一轮训练得到的各客户端所属簇的簇模型参数和其他簇的专家层模型参数,并接收各客户端采用本地数据训练得到的本地模型参数和自适应权重;根据各客户端的本地模型参数对各客户端进行聚类分簇;将同一簇中各客户端的本地模型参数进行联邦平均聚合,形成本轮训练得到的簇模型;各客户端基于自适应权重聚合各簇模型的专家层模型参数,并连接个性化层模型参数,得到预测模型;将本地数据输入预测模型,得到预测结果;构建预测结果和真实标签的损失,以最小化损失为目标,重复训练步骤。本发明提供的训练方法能够解决数据异质性带来的偏差和难以收敛的问题。
-
公开(公告)号:CN117313901A
公开(公告)日:2023-12-29
申请号:CN202311597925.4
申请日:2023-11-28
Applicant: 北京邮电大学 , 国网数字科技控股有限公司 , 国网江苏省电力有限公司
IPC: G06N20/00
Abstract: 本发明提供一种基于多任务聚类联邦个性学习的模型训练方法及装置,中央服务器向各客户端下发上一轮训练得到的各客户端所属簇的簇模型参数和其他簇的专家层模型参数,并接收各客户端采用本地数据训练得到的本地模型参数和自适应权重;根据各客户端的本地模型参数对各客户端进行聚类分簇;将同一簇中各客户端的本地模型参数进行联邦平均聚合,形成本轮训练得到的簇模型;各客户端基于自适应权重聚合各簇模型的专家层模型参数,并连接个性化层模型参数,得到预测模型;将本地数据输入预测模型,得到预测结果;构建预测结果和真实标签的损失,以最小化损失为目标,重复训练步骤。本发明提供的训练方法能够解决数据异质性带来的偏差和难以收敛的问题。
-
公开(公告)号:CN116360939A
公开(公告)日:2023-06-30
申请号:CN202310216223.0
申请日:2023-03-02
Applicant: 国网浙江省电力有限公司电力科学研究院 , 北京邮电大学
Abstract: 本发明公开了基于可信计算的多任务调度方法、系统、设备及存储介质,属于多任务调度技术领域。本发明的一种基于可信计算沙盒的联邦学习多任务调度方法,通过构建参与方节点、区块链调度模型以及训练节点,建立计算沙盒状态通道;在计算沙盒状态通道中,训练节点对相关参数进行全局模型聚合与参数的计算,得到联邦学习任务的训练结果和状态信息;将训练结果和状态信息传输至区块链调度模型,并关闭计算沙盒状态通道,以释放所占有的算力资源;区块链调度模型将训练结果发送给参与方节点,更新算力资源的状态信息,完成联邦学习多任务的调度,实现对联邦学习模型训练和聚合过程中的可信监管,并且能够避免隐私泄露,方案科学、合理,切实可行。
-
-
-