基于有限场景下大目标语义分割模型的轨行区识别方法

    公开(公告)号:CN114140764A

    公开(公告)日:2022-03-04

    申请号:CN202111312558.X

    申请日:2021-11-08

    摘要: 本发明涉及一种基于有限场景下大目标语义分割模型的轨行区识别方法,该方法包括:步骤S1、确定轨行区识别算法,采用编码器‑解码器的结构模型对图像进行语义分割;步骤S2、筛选特征主干网络模型,选择ResNet残差网络作为主干网络原型架构;步骤S3、重构主干网络架构,添加第一层卷积网络以及三组Block网络;步骤S4、新的主干网路模型层数量为40层;步骤S5、在每一个Block后添加激活层ReLU;步骤S6、采用空洞卷积方式进行编码器结构设计等。与现有技术相比,本发明具有提高了运算速度的同时对轨行区的特征提取更加有效等优点。

    一种地铁轨旁设备自动巡检系统及自动巡检方法

    公开(公告)号:CN112200483A

    公开(公告)日:2021-01-08

    申请号:CN202011139155.5

    申请日:2020-10-22

    摘要: 一种地铁轨旁设备自动巡检系统及自动巡检方法,巡检车上设置图像采集模块,定位模块,以及故障检测模块,图像采集模块采集地铁轨旁设备的图像数据,定位模块获取巡检车的实时位置信息,故障检测模块根据图像数据以及图像拍摄时对应的位置信息,对地铁轨旁设备进行识别分析,获取故障设备位置并明确故障类型。本发明实现对地铁轨旁设备的全自动巡检,提高了识别精度和效率,具有良好的灵活性和可扩展性,降低了人工成本,保障了运营安全。

    基于图像判别道岔状态的防挤岔方法、设备及存储介质

    公开(公告)号:CN114132360A

    公开(公告)日:2022-03-04

    申请号:CN202111312566.4

    申请日:2021-11-08

    摘要: 本发明涉及一种基于图像判别道岔状态的防挤岔方法、设备及存储介质,该方法首先通过摄像头获得驾驶室前方司机视角画面,结合神经网络模型算法和传统图像识别算法各自优势实时判别司机前方轨行区的道岔定反位状态;其次在多条轨道交汇的场景下区分列车正确的行驶方向,精确划分唯一轨行区;最后根据前方轨行区并入轨道方向和道岔定反位状态进行判断是否有挤岔风险并通过司机屏进行声光告警,提示司机注意前方道岔状态。与现有技术相比,本发明具有提高了列车行车安全,实现了道岔定反位识别,防范挤岔事故等优点。

    基于有限场景下大目标语义分割模型的轨行区识别方法

    公开(公告)号:CN114140764B

    公开(公告)日:2024-11-01

    申请号:CN202111312558.X

    申请日:2021-11-08

    摘要: 本发明涉及一种基于有限场景下大目标语义分割模型的轨行区识别方法,该方法包括:步骤S1、确定轨行区识别算法,采用编码器‑解码器的结构模型对图像进行语义分割;步骤S2、筛选特征主干网络模型,选择ResNet残差网络作为主干网络原型架构;步骤S3、重构主干网络架构,添加第一层卷积网络以及三组Block网络;步骤S4、新的主干网路模型层数量为40层;步骤S5、在每一个Block后添加激活层ReLU;步骤S6、采用空洞卷积方式进行编码器结构设计等。与现有技术相比,本发明具有提高了运算速度的同时对轨行区的特征提取更加有效等优点。

    基于图像判别道岔状态的防挤岔方法、设备及存储介质

    公开(公告)号:CN114132360B

    公开(公告)日:2023-09-08

    申请号:CN202111312566.4

    申请日:2021-11-08

    摘要: 本发明涉及一种基于图像判别道岔状态的防挤岔方法、设备及存储介质,该方法首先通过摄像头获得驾驶室前方司机视角画面,结合神经网络模型算法和传统图像识别算法各自优势实时判别司机前方轨行区的道岔定反位状态;其次在多条轨道交汇的场景下区分列车正确的行驶方向,精确划分唯一轨行区;最后根据前方轨行区并入轨道方向和道岔定反位状态进行判断是否有挤岔风险并通过司机屏进行声光告警,提示司机注意前方道岔状态。与现有技术相比,本发明具有提高了列车行车安全,实现了道岔定反位识别,防范挤岔事故等优点。

    一种基于机器视觉的自身移动状态识别方法

    公开(公告)号:CN112200027B

    公开(公告)日:2022-07-15

    申请号:CN202011031255.6

    申请日:2020-09-27

    摘要: 本发明涉及一种基于机器视觉的自身移动状态识别方法,包括:1、画面按实际现场场景特点划分为M*N个方格,根据不同的应用场景特点,标定需要重点判别的“敏感区域”;2、以敏感区域所在的方格的坐标为依据,分别获取这一方格坐标内的前后两帧图像中的这一局部;3、传入compare_ssim函数,计算其相似度,得到score值,暂存在一个数据列表中;4、完成全部敏感区域每一格局部图像的对比后,得到了一个相似值score组成的数据列表score_list,分别计算获取score_list的最小值score_min和平均值score_avr;5、当score_min和score_avr同时小于各自设定的阈值时,判别为车辆自身处于“移动”状态,否则为“静止”状态。与现有技术相比,本发明具有准确率高,系统成本低,实现简单,运算速度快等优点。

    基于视频识别和IMU设备的轨道交通应急定位方法和系统

    公开(公告)号:CN112550377A

    公开(公告)日:2021-03-26

    申请号:CN202011504539.2

    申请日:2020-12-18

    IPC分类号: B61L25/02

    摘要: 本发明公开了一种基于视频识别和IMU设备的轨道交通应急定位方法和系统,该方法包含:初始化IMU设备、摄像模块和列车的位置信息(包含公里标数据+IMU累计位移值);通过IMU设备获取当前列车的运动姿态,通过摄像模块捕获公里标识牌图像;对摄像模块捕获的图像分析处理,判断当前列车的运行状态;当列车处于行进状态,利用IMU设备获取当前列车的运动姿态和加速度值,计算列车的IMU累计位移值;从摄像模块捕获的图像中识别公里标数据,校正列车的位置信息。其优点是:该方法将视频识别和IMU设备等相结合,形成一种独立性较强的应急定位方式,可独立于车辆的信号系统,在发生信号故障时提供应急定位信息,不依赖任何原有的车载传感器,即可实现列车的定位。

    一种基于机器视觉的自身移动状态识别方法

    公开(公告)号:CN112200027A

    公开(公告)日:2021-01-08

    申请号:CN202011031255.6

    申请日:2020-09-27

    摘要: 本发明涉及一种基于机器视觉的自身移动状态识别方法,包括:1、画面按实际现场场景特点划分为M*N个方格,根据不同的应用场景特点,标定需要重点判别的“敏感区域”;2、以敏感区域所在的方格的坐标为依据,分别获取这一方格坐标内的前后两帧图像中的这一局部;3、传入compare_ssim函数,计算其相似度,得到score值,暂存在一个数据列表中;4、完成全部敏感区域每一格局部图像的对比后,得到了一个相似值score组成的数据列表score_list,分别计算获取score_list的最小值score_min和平均值score_avr;5、当score_min和score_avr同时小于各自设定的阈值时,判别为车辆自身处于“移动”状态,否则为“静止”状态。与现有技术相比,本发明具有准确率高,系统成本低,实现简单,运算速度快等优点。

    一种轨道交通应急定位系统及方法

    公开(公告)号:CN112249089A

    公开(公告)日:2021-01-22

    申请号:CN202011031680.5

    申请日:2020-09-27

    IPC分类号: B61L15/00 G01C21/16

    摘要: 本发明涉及一种轨道交通应急定位系统及方法,用于地铁沿线及隧道中的地铁车辆的应急定位,所述的应急定位系统包括摄像机、IMU、显示器和视频识别主机,所述的视频识别主机分别与摄像机、IMU和显示器连接,所述的摄像机用于拍摄隧道壁上的公里标,所述的IMU用于采集车辆的加速度,计算车辆位移,所述的视频识别主机将公里标与位移结合,定位车辆的位置信息,并通过无线车地通信通道,把车辆位置信息发往调度中心。与现有技术相比,本发明具有以下优点:不依赖外部系统,不增加轨旁设备,严格控制成本,可在原有信号设备故障情况下提供列车位置辅助显示信息等。