-
公开(公告)号:CN118917678B
公开(公告)日:2025-05-23
申请号:CN202410823737.7
申请日:2024-06-25
Applicant: 河海大学
IPC: G06Q10/0637 , G06Q50/06 , G06F18/20 , G06F18/213 , G06N3/006
Abstract: 本发明公布了一种基于多智能体深度强化学习鲁棒奖励函数的配电网‑微电网协同最优策略方法。微电网中,通过多智能体深度强化学习挖掘微电网的非合作博弈策略,在考虑未来收益的基础上精准给出最小化配电网运行成本且最大化微电网综合收益的策略,实现了配电网‑微电网协同最优策略。采用不确定状态的马尔可夫过程,构建了最恶劣情况下的鲁棒奖励函数;通过总变差距离将策略差值转化为奖励差值。计及配电网和微电网的约束条件和目标函数,构建了基于多智能体深度强化学习鲁棒奖励函数的配电网‑微电网协同最优策略模型。
-
公开(公告)号:CN120013086A
公开(公告)日:2025-05-16
申请号:CN202510479649.4
申请日:2025-04-17
Applicant: 河海大学
Abstract: 本发明公开了一种基于多智能体强化学习奖励再分配的综合能源站运行方法,基于深度强化学习方法,通过奖励再分配解决交通场景中的延迟奖励问题。本发明建立了包含电动汽车、燃料电池车及燃油车的混合动态用户均衡模型,设计了融合优惠券动态决策与制氢、储氢方法的综合能源站运营框架;通过序列马尔可夫决策过程刻画了定价方法对站端收益与交通拥堵的跨时段影响,将延迟奖励再分配为即时奖励;针对配电网节点边际电价与交通流量的时空耦合,构建了考虑配电网运行效用、交通网络均衡与综合能源站运营的协同决策模型,实现了充能、制氢需求时空转移、交通拥堵动态缓解与综合能效提升的联合优化。
-
公开(公告)号:CN118917901A
公开(公告)日:2024-11-08
申请号:CN202410823734.3
申请日:2024-06-25
Applicant: 河海大学
IPC: G06Q30/0283 , G06Q50/06 , G06F17/15 , G06N3/006
Abstract: 本发明公布了一种基于多智能体强化学习鲁棒奖励函数的充电站定价及充电方法,通过鲁棒奖励函数处理电动汽车行为的不确定性,在历史数据的基础上,实现了充电站最优定价及充电决策。采用多智能体深度强化学习挖掘充电站的非合作博弈动作,实现了配电网‑电动汽车的高效协同。采用不确定状态的马尔可夫过程,构建了最恶劣情况下的鲁棒奖励函数;通过总变差距离将策略差值转化为奖励差值。计及电网及充电站的运行约束和优化目标,构建了基于多智能体深度强化学习鲁棒奖励函数的充电站最优定价及充电模型。
-
公开(公告)号:CN118917678A
公开(公告)日:2024-11-08
申请号:CN202410823737.7
申请日:2024-06-25
Applicant: 河海大学
IPC: G06Q10/0637 , G06Q50/06 , G06F18/20 , G06F18/213 , G06N3/006
Abstract: 本发明公布了一种基于多智能体深度强化学习鲁棒奖励函数的配电网‑微电网协同最优策略方法。微电网中,通过多智能体深度强化学习挖掘微电网的非合作博弈策略,在考虑未来收益的基础上精准给出最小化配电网运行成本且最大化微电网综合收益的策略,实现了配电网‑微电网协同最优策略。采用不确定状态的马尔可夫过程,构建了最恶劣情况下的鲁棒奖励函数;通过总变差距离将策略差值转化为奖励差值。计及配电网和微电网的约束条件和目标函数,构建了基于多智能体深度强化学习鲁棒奖励函数的配电网‑微电网协同最优策略模型。
-
-
-