-
公开(公告)号:CN118570516A
公开(公告)日:2024-08-30
申请号:CN202410231217.7
申请日:2024-02-29
Applicant: 北京工业大学
IPC: G06V10/764 , G06V10/774 , G06T3/4007 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/082 , G06N3/084
Abstract: 本发明公开了适用于铁路环境下的异物入侵检测方法,包括如下步骤,步骤1:建立供深度学习训练的铁路异物入侵样本集;步骤2:建立深度学习检测网络模型;步骤3:针对铁路场景的目标检测的优化网络;步骤4:模型剪枝操作;利用数据增强技术将原有的数据集进行扩充,该方法可以很好的提升训练时模型的鲁棒性以及一定程度上可以规避训练的时候出现过拟合的问题。除此之外,本发明使用了大模型与人工智能生成内容AIGC,即使用“文生图”的方式根据需求生成虚拟的铁路环境下含有异物入侵的图片,该技术能够很好的弥补目前现实中没有或者少有的异物入侵目标图片,图片的真实效果可与现实世界相当。
-
公开(公告)号:CN116149371A
公开(公告)日:2023-05-23
申请号:CN202310276977.5
申请日:2023-03-21
Applicant: 北京工业大学
IPC: G05D1/10
Abstract: 本发明公开了一种基于视觉传感器网络的多运动体三维跟踪与控制平台,包括多摄像机系统、地面控制系统、机载红外反光小球和目标无人机四个主要模块。多摄像机系统包括多个带有红外滤光片的摄像机、用于增强光强度的红外补光源和用于同步多个摄像机图像数据的同步触发器以及一个导航端电脑来运行核心视觉算法。多摄像机相互作用组成一个视觉传感器网络。地面控制系统从多摄像机系统接收导航数据,然后通过无线局域网将控制命令上传到目标无人机。数据传输是利用机器人操作系统ROS的话题订阅和发布机制,对导航数据进行处理、结合参考轨迹和控制器计算出给无人机的控制指令,最后将该指令通过无线局域网发布。
-
公开(公告)号:CN115065718A
公开(公告)日:2022-09-16
申请号:CN202210472362.5
申请日:2022-04-29
Applicant: 北京工业大学
IPC: H04L67/52 , H04L69/164
Abstract: 本发明公开了基于光学室内定位的多智能体协同控制算法验证系统,属于多智能体控制领域,所述系统包括:光学室内定位子系统,用于获取目标智能体在空间中的位置信息,并通过UDP协议发送到局域网中;通信子系统,用于实现数据的共享以及控制指令的发送;控制子系统,用于接收目标智能体的位置信息,实现待验证多智能体协同控制算法的设计以及控制指令的执行。本发明能够减少外界环境对算法的干扰,能够安全、便捷、高效地验证多智能体协同控制算法的可行性、实时性和稳定性,这对提高多智能体协同控制算法性能、加快多智能体系统的理论成果走向工程实际的速度有着重大的意义。
-
公开(公告)号:CN117727189A
公开(公告)日:2024-03-19
申请号:CN202311779704.9
申请日:2023-12-22
Applicant: 北京工业大学
IPC: G08G1/07 , G08G1/01 , G08G1/0968
Abstract: 本发明公开了混合车流下基于车路协同的交通信号与车辆轨迹优化方法,包括基于车路协同的交通信息整理与控制系统建模;基于双层优化模型的信号灯及车流优化。本方法采用双环和屏障结构对上层的信号灯配时进行优化,其中所有车辆的行驶延迟在动态规划中作为子优化问题被最小化。CAV和HDV的释放时间作为上层的输入参数计算。优化后的到达时间传输给下层。CAV根据判断最优到达时间是否超过截止时间,采用两种不同的优化目标进行经济性驾驶,因此随着CAV在车流中占比的增加,模型对于行驶时间与油耗的优化效果都将会更加富有成效。本发明基于混合车流情况下的道路信号灯与车辆轨迹的协同优化方法,提出更加高效且更加环保的信号灯和轨迹优化方案。
-
公开(公告)号:CN117036989A
公开(公告)日:2023-11-10
申请号:CN202310603409.1
申请日:2023-05-25
IPC: G06V20/17 , G06V20/40 , G06V10/82 , G06V10/764 , G06V10/774 , G06T7/246 , G06T7/277 , G06T7/62
Abstract: 本文提供了一种基于计算机视觉的微型无人机目标识别与跟踪控制方法,通过获取无人机实时采集的视频流;提取所述视频流中的视频帧图像,并对每个视频帧图像进行处理以得到输入图像;将所述输入图像输入至预先训练完成的YOLOv5神经网络模型中,以得到所述输入图像中的目标边界框信息,所述目标边界框信息包括目标类型和置信度;根据所述目标边界框信息以及用户提前确定的跟踪目标,对当前视频帧图像中的目标与前一视频帧图像中的跟踪目标进行匹配,确定无人机的跟踪轨迹更新数据;根据所述无人机的跟踪轨迹更新数据,对所述无人机进行跟踪控制,本文可以提高无人机对选定目标的精准且高效的识别和跟踪。
-
公开(公告)号:CN115857494A
公开(公告)日:2023-03-28
申请号:CN202211492402.9
申请日:2022-11-25
Applicant: 北京工业大学
IPC: G05D1/02
Abstract: 本发明公开了数据驱动的混合车辆队列鲁棒控制方法,通过采用扩展动态模态分解(EDMD)算法逼近无限维Koopman算子,建立混合纵向车辆队列的线性模型。与已有的相关工作不同,我们在数据驱动的线性模型中引入了模型失配误差。其次,采用管道模型预测控制(TubeMPC)方法设计自动驾驶车辆的鲁棒控制器,使队列中所有车辆的实际状态轨迹被约束在以标称轨迹为中心的管道中,达到有界稳定。最后,通过数值仿真验证了所设计的数据驱动建模方法和TubeMPC控制器的有效性,结果表明该方法能够克服模型失配误差等不确定性的影响,实现快速高效的闭环控制。
-
公开(公告)号:CN115577320A
公开(公告)日:2023-01-06
申请号:CN202211263372.4
申请日:2022-10-15
Applicant: 北京工业大学
Abstract: 本发明公开了一种基于数据插值的多传感器异步数据融合处理方法,设计了包括航迹推算模块、数据缓冲模块、时间索引模块、数据插值模块四部分的定位框架。航迹推算模块根据车辆的运动动模型进行位姿估计。传感器获取了测量信息后经由数据缓冲模块进行缓存。通过时间索引模块来实现多传感器测量信息时间戳的精准匹配,通过数据插值模块,经由状态估计器,获得尽可能精确的车辆位置信息。通过搭建无人驾驶仿真平台验证本方法的有效性。实验结果表明,按照本发明提出的定位框架实现的定位算法具有精度高的优点。
-
公开(公告)号:CN119717874A
公开(公告)日:2025-03-28
申请号:CN202411626217.3
申请日:2024-11-14
Applicant: 北京工业大学
IPC: G05D1/495 , G05D1/46 , G05D101/15 , G05D109/20
Abstract: 本发明公开了基于YOLOv7的无人机与无人车跨域协同跟踪控制方法,包括:由用户控制无人车搭载无人机至指定地点;由无人机实时采集的视频流,提取其中帧图像,并对帧图像处理以得到输入图像;将输入图像输入至预先训练完成的YOLOv7网络模型中,以获取输入图像中所有的目标信息;用户能够指定目标信息,对非用户指定的目标进行障碍物判定。根据输入图像中的目标信息,系统实时更新路径以躲避障碍物并持续跟踪指定目标。由用户下达结束跟踪并降落指令,无人机在输入图像中寻找无人车目标信息,跟踪并降落于无人车上。本发明能够在复杂和动态环境中稳定运行,确保可靠的目标跟踪,有效实现无人机与无人车之间的互补,充分利用各自的优势,提升整体系统性能。
-
公开(公告)号:CN118823228A
公开(公告)日:2024-10-22
申请号:CN202410704825.5
申请日:2024-06-03
Applicant: 北京工业大学
Abstract: 本发明公开了基于深度相机与YOLOv8模型的实时人体姿态三维重建方法,包括以下步骤:S1:使用深度相机实时获取数据流。S2:使用深度学习的方法检测人体姿态并提取关键位置点信息。S3:预处理关键位置点检测张量数据及参考墙面和地板的建模。S4;生成点云并根据点云的信息进行人体姿态的三维重建与渲染。本发明通过结合深度相机和先进的YOLOv8算法模型,展示了在实时人体姿态三维重建技术方面的显著成就。该方法能够高效地采集并处理图像信息,精确执行人体姿态检测和关键位置点提取,确保了实时性和高精度重建的同时,还特别强调了生成墙面和地面策略的创新,极大地增强模型在复杂环境下的适应性和稳定性。
-
公开(公告)号:CN118097265A
公开(公告)日:2024-05-28
申请号:CN202410231215.8
申请日:2024-02-29
Applicant: 北京工业大学
Abstract: 本发明公开了基于深度学习与GPU加速的动态场景下视觉SLAM优化方法,包括以下步骤:通过相机获取图像帧的RGB图像与深度图像;对RGB图像进行ORB特征提取,并使用YOLOv5目标检测算法获取边界框检测结果,将边界框检测结果分为动态物体和静态物体两类;根据提取的ORB特征,基于深度图像得到的深度值信息对动态物体检测框进行前背景分割,筛选并剔除被认为是动态特征点的前景点;对剩下的静态特征点进行相机位姿估计和优化,得到准确的相机运动结果;本发明结合深度信息来分割检测框中的前背景区域,以避免剔除静态的背景点;将跟踪线程的ORB特征提取和目标检测线程中的YOLOv5目标检测算法分别进行CUDA并行化和TensorRT优化,实现嵌入式设备的实时动态视觉SLAM。
-
-
-
-
-
-
-
-
-