-
公开(公告)号:CN110928974A
公开(公告)日:2020-03-27
申请号:CN201911216390.5
申请日:2019-12-02
Applicant: 成都信息工程大学
IPC: G06F16/29 , G06F40/151 , G06F40/126 , G08G1/01
Abstract: 本发明涉及道路网简化领域,目的是提供基于Kml生成及融点简化路网的方法,本发明包括以下步骤:S1:获取待研究地区的道路经纬度数据和路口的经纬度数据;S2:将S1中的经纬度作为输入,通过getRoadNet函数转换得到所述待研究地区的道路拓扑结构文件和路口信息文件;S3:通过整合所述道路拓扑结构文件和所述路口信息文件,得到简化后的kml文件;S4:将S3中简化后的Kml文件重新跟所述待研究地区的道路进行匹配,并进行编码得到待研究地区的道路结构图,本方法设计合理,实用性强,适合推广。
-
公开(公告)号:CN112949933B
公开(公告)日:2022-08-02
申请号:CN202110305534.5
申请日:2021-03-23
Applicant: 成都信息工程大学 , 四川易方智慧科技有限公司
Abstract: 本发明公开了一种基于多智能体强化学习的交通组织方案优化方法,改进了MADDPG中的Actor网络,基于生灭过程改进了Critic网络中的经验库,使用早高峰最大车流设作为智能体回报指标,使用轨迹数据训练最大熵逆强化学习模型作为多智能体的回报机制,基于此设计出强化学习的回报函数;本发明方法实现了对当前城市交通组织方案进行优化,通过对当前交通数据进行分析,找出导致交通拥堵的原因,本方法能够很好的适应和快速找出最优方案,为交警专家提供了交通辅导意见,并为智慧城市打下基础。
-
公开(公告)号:CN112949933A
公开(公告)日:2021-06-11
申请号:CN202110305534.5
申请日:2021-03-23
Applicant: 成都信息工程大学 , 四川易方智慧科技有限公司
Abstract: 本发明公开了一种基于多智能体强化学习的交通组织方案优化方法,改进了MADDPG中的Actor网络,基于生灭过程改进了Critic网络中的经验库,使用早高峰最大车流设作为智能体回报指标,使用轨迹数据训练最大熵逆强化学习模型作为多智能体的回报机制,基于此设计出强化学习的回报函数;本发明方法实现了对当前城市交通组织方案进行优化,通过对当前交通数据进行分析,找出导致交通拥堵的原因,本方法能够很好的适应和快速找出最优方案,为交警专家提供了交通辅导意见,并为智慧城市打下基础。
-
公开(公告)号:CN111582469A
公开(公告)日:2020-08-25
申请号:CN202010211670.3
申请日:2020-03-23
Applicant: 成都信息工程大学
Abstract: 本发明属于人工智能技术领域,公开了一种多智能体协作信息处理方法、系统、存储介质、智能终端,每个agent在环境中每采取下一步行为在环境中留下自己的信息微量,当其它agent到达环境中状态时会先搜索周围的信息微量,把信息微量加入到神经网络中进行训练;分组模型找到多智能体之间更好的合作策略,分组模型使用多智能体之间的分组关系,预测出多智能体在下一时刻的最优分组;在每次经过G模型训练一回合结束时,把每个agent的损失函数公式看作适应度,统计每一回合智能体轨迹的损失值均值,汇总每一回合所有agent轨迹的损失值。本发明提高了多智能体的团队学习效率,实现多智能体能够团队协作更好的完成任务。
-
-
-