-
公开(公告)号:CN117077286A
公开(公告)日:2023-11-17
申请号:CN202311029546.5
申请日:2023-08-15
Applicant: 长安大学
IPC: G06F30/15 , G06F30/20 , G06F119/14
Abstract: 本发明涉及一种异构交通流下智能网联车辆跟驰模型仿真及测试方法,采用数字孪生虚实结合技术,对真实场景中的静态基础设施及动态交通流进行孪生,搭建出反映真实交通流的虚拟仿真测试环境,通过向真实的测试车辆注入虚拟仿真环境,实现真实车辆与虚拟仿真环境的动态交互。在智能驾驶员模型(IDM)的基础上,考虑单后车多前车的车头间距、速度差和加速度等影响因素,引入分子动力学理论和敏感性系数及各车辆对主车的影响权重提出一种考虑单后车多前车影响的智能网联车辆跟驰模型并基于跟驰队列虚实孪生场景,对该智能网联车辆跟驰模型进行测试与验证,证明该模型更能精准地反映智能网联车辆在实际道路下的跟驰行为。
-
公开(公告)号:CN114879631A
公开(公告)日:2022-08-09
申请号:CN202210466439.8
申请日:2022-04-29
Applicant: 长安大学
Inventor: 刘占文 , 赵祥模 , 李蕊芬 , 李超 , 王超 , 肖方伟 , 房颜明 , 王洋 , 宋明哲 , 孟虎 , 徐志刚 , 王润民 , 林杉 , 程娟茹 , 范锦 , 李文倩 , 闵海根 , 蒋渊德
IPC: G05B23/02
Abstract: 本发明提供一种基于数字孪生云控平台的自动驾驶测试系统和方法,借助仿真软件生成所需开发测试的高保真虚拟场景,并在仿真软件中建立多种虚拟传感器模型,将虚拟传感器探测到的目标物体信息通过总线注入到实车上的自动驾驶控制器中,并进行信息融合与控制决策,控制器将决策后的加速、制动以及转向指令发送给实车执行器。实车将车辆总线上的整车运动状态信息反馈给虚拟场景来完成车辆位置的同步,实现整个系统的闭环实时测试验证,并通过数字孪生云控平台实时展示场景相关孪生效果。从而实现虚实结合自动驾驶算法功能验证、场景仿真测试与整车相关的集成测试,并且克服现有实车道路测试和软件仿真测试技术不足,提高测试效率。
-
公开(公告)号:CN117037491B
公开(公告)日:2025-04-18
申请号:CN202311023827.X
申请日:2023-08-15
Applicant: 长安大学
IPC: G08G1/01 , G06N3/0464 , G06N3/08
Abstract: 本发明涉及一种基于时空特征的动态图卷积交通流预测方法,采用由时空嵌入模块、时空特征融合模块、加权融合层和外部因素模块组成的STF‑SDAM‑DGCN模型,首先对历史交通流数据进行周期划分后与时空嵌入模块学习到的时空嵌入信息融合作为时空特征融合模块的输入数据,同时使用注意力机制、非对称卷积以及Zero‑Softmax函数构建稀疏有向邻接矩阵;将数据输入时空特征融合模块中,同时与外部因素模块中的外部影响因素融合后得到融合外部因素的历史交通流时空特征数据;数据随后传入加权融合层,时空嵌入模块将预测的未来时间步信息也传入该层,依据编码器得到的历史交通流特征生成未来交通流表示,并将其作为解码器输入,通过解码器进行预测,经过全连接层得到最终的未来交通流预测结果。
-
公开(公告)号:CN117037491A
公开(公告)日:2023-11-10
申请号:CN202311023827.X
申请日:2023-08-15
Applicant: 长安大学
IPC: G08G1/01 , G06N3/0464 , G06N3/08
Abstract: 本发明涉及一种基于时空特征的动态图卷积交通流预测方法,采用由时空嵌入模块、时空特征融合模块、加权融合层和外部因素模块组成的STF‑SDAM‑DGCN模型,首先对历史交通流数据进行周期划分后与时空嵌入模块学习到的时空嵌入信息融合作为时空特征融合模块的输入数据,同时使用注意力机制、非对称卷积以及Zero‑Softmax函数构建稀疏有向邻接矩阵;将数据输入时空特征融合模块中,同时与外部因素模块中的外部影响因素融合后得到融合外部因素的历史交通流时空特征数据;数据随后传入加权融合层,时空嵌入模块将预测的未来时间步信息也传入该层,依据编码器得到的历史交通流特征生成未来交通流表示,并将其作为解码器输入,通过解码器进行预测,经过全连接层得到最终的未来交通流预测结果。
-
公开(公告)号:CN116612468A
公开(公告)日:2023-08-18
申请号:CN202310438843.9
申请日:2023-04-21
Applicant: 长安大学
IPC: G06V20/64 , G06V10/764 , G06V10/42 , G06V10/774 , G06V10/80 , G06V10/82 , G06N3/0464
Abstract: 本发明公开了一种基于多模态融合与深度注意力机制的三维目标检测方法:步骤1:获得原始点云数据和原始图像数据并预处理;步骤2:将预处理后的点云数据和图像数据输入基于多模态融合与深度注意力机制的三维目标检测网络中,基于多模态融合与深度注意力机制的三维目标检测网络包括3D建议框生成阶段和3D边界框细化阶段,网络输出目标边界框参数和分类置信度;步骤3:训练基于多模态融合与深度注意力机制的三维目标检测网络;步骤4,采用训练好的检测网络对采集到的点云数据和图像数据处理,输出3D目标信息,实现3D目标检测。本发明使点云和图像特征得到更充分和有效的利用;同时实现了高精度的环境感知。
-
公开(公告)号:CN115730637A
公开(公告)日:2023-03-03
申请号:CN202211490477.3
申请日:2022-11-25
Applicant: 长安大学
IPC: G06N3/0455 , G06N3/0499 , G06N3/08
Abstract: 本申请涉及多模态车辆轨迹预测模型训练方法、装置及轨迹预测方法,模型训练方法包括将车辆运动轨迹训练数据划分为多个类别;对每个类别的训练数据基于解码器模块进行权重迭代剪枝,得到每个类别对应的掩码矩阵;基于每个类别的训练数据、每个类别对应的掩码矩阵对编码器模块和解码器模块进行训练,得到训练后的多模态车辆轨迹预测模型,能够输出与多个类别对应的多个轨迹预测结果。本申请的多模态车辆轨迹预测模型训练方法,采用基于数据驱动的方式,充分考虑不同驾驶操作意图,结合车辆的历史运动轨迹状态信息和不同驾驶操作意图的特征,进行多模态车辆轨迹预测模型的训练,生成的车辆轨迹预测模型能够输出多个合理的预测轨迹。
-
-
-
-
-