-
公开(公告)号:CN118670387A
公开(公告)日:2024-09-20
申请号:CN202410916112.5
申请日:2024-07-09
Applicant: 安徽工程大学
IPC: G01C21/16
Abstract: 本发明涉及船舶运动信息测量技术领域,具体是一种基于惯性传感器带通滤波器的船舶升沉测量方法,其具体步骤如下:步骤1、算出z轴加速度;步骤2、拟合主导频率;步骤3、获得z轴位移信息;步骤4、处理获得船舶升沉信息;本发明提供了一种基于惯性传感器与无幅相误差引入的带通滤波器的船舶升沉测量方法,可以实现海浪主导频率的实时监测,并以此作为无幅相误差引入的带通滤波器的中心频率,进而利用此带通滤波器得到目标升沉位移,实现准确、实时的升沉测量,解决了传统升沉测量残留幅值误差问题,并避免了相位校正的需要,有效提高了船舶升沉信息测量的精度,为提高船舶海上作业效率和海上各类平台的主动升沉补偿提供一定的参考价值。
-
公开(公告)号:CN119370123A
公开(公告)日:2025-01-28
申请号:CN202411508514.8
申请日:2024-10-28
Applicant: 安徽工程大学
IPC: B60W60/00 , B60W30/095 , B60W30/16 , B60W50/14
Abstract: 本申请涉及一种自动驾驶车辆的夜间斜坡预警方法、装置和电子设备,其中,该夜间斜坡预警方法包括:获取车载雷达关于自车前方路况的探测数据;根据探测数据判断路况以及自车前方的障碍车是否消失;当障碍车消失时确定当前观测距离,判断当前观测距离与安全跟车距离之间的关系,当当前观测距离小于安全跟车距离时,给出跟车预警提示。本发明在前方障碍车消失后,默认前方障碍车依旧存在,继续计算两者之间的当前观测距离。当当前观测距离小于安全跟车距离时,给出跟车预警提示,使得自动驾驶系统控制车速,使得当前观测距离始终大于或等于安全跟车距离。解决了目前自动驾驶车辆的跟车预警方法在夜间坡道场景下无法实现有效跟车预警的问题。
-
公开(公告)号:CN119550918A
公开(公告)日:2025-03-04
申请号:CN202411966089.7
申请日:2024-12-30
Applicant: 安徽工程大学
Abstract: 本发明涉及车辆安全领域,特别是涉及一种车辆路口右转向中非机动车道盲区的跟踪方法,及其对应的装置和系统。该方法包括:S1:实时获取车辆的方向盘转角,并根据方向盘转角以及车辆的车身参数计算出车辆转角。S2:通过车身上安装的盲区摄像头获取右侧非机动车道处的影像画面,根据影像画面计算出盲区位置的中心坐标,并将其表示为与车辆转角相关的参数。S3:基于盲区的中心坐标,得到盲区摄像头的云台转角与车辆转角之间的转动关系;动态调整盲区摄像头的云台转角,以使得盲区摄像头的光心方向与盲区的中心坐标重合。本发明解决了现有技术难以实现在右转弯时对右侧非机动车的交通状况进行实时观察的问题,进而有效降低交通安全事故发生率。
-
公开(公告)号:CN119085638A
公开(公告)日:2024-12-06
申请号:CN202411101568.2
申请日:2024-08-12
Applicant: 安徽工程大学
Abstract: 本发明涉及无人驾驶扫地车速度更新计算技术领域,具体为一种无人驾驶扫地车比力积分转换增量计算方法,包括:在系统中对采样周期h进行设置,实时采集陀螺仪和加速度计输出的角速度与比力信号,经过导航解算得到tk时刻载体坐标系B与地理坐标系G的关系矩阵#imgabs0#利用陀螺仪输出递推计算第一旋转坐标系s1相对于载体坐标系b运动的测量旋转角速度#imgabs1#与第二旋转坐标系S2相对于第一旋转坐标系S1运动的旋转角速度#imgabs2#利用陀螺仪输出及旋转角速度#imgabs3#与#imgabs4#递推第二旋转坐标系从t时刻到tk时刻的测量关系矩阵#imgabs5#利用加速度计输出、关系矩阵#imgabs6#和关系矩阵#imgabs7#递推tk+1时刻测量比力积分转换增量#imgabs8#本发明能够在高动态运动场景下实现无人驾驶扫地车精确高效的比力积分转换增量计算。
-
公开(公告)号:CN118644699A
公开(公告)日:2024-09-13
申请号:CN202410639161.9
申请日:2024-05-22
Applicant: 安徽工程大学
IPC: G06V10/764 , G06V10/82 , G06N3/0455 , G06N3/0464 , G06V10/80 , G06N3/08 , G06T7/73 , G06V10/40
Abstract: 本发明涉及目标检测技术领域,尤其涉及一种基于极坐标信息加权的多相机BEV感知方法,方法包括:利用位置与语义信息加权得到目标分类与边界框以取代传统的直接预测方法、通过在训练过程添加时间序列信息以取代传统的多帧采样方法,本发明能够在极坐标下准确识别目标的边界框,极大地降低了误检率,能够有效地解决远处小目标检测失真的问题,并且能够充分利用时间信息检测被遮挡物体,同时精准预测物体的速度与朝向,有效解决当前模型难以检测被截断处物体的痛点,具有较好的鲁棒性与较高的准确率。
-
公开(公告)号:CN118506315A
公开(公告)日:2024-08-16
申请号:CN202410521968.2
申请日:2024-04-28
Applicant: 安徽工程大学
IPC: G06V20/58 , G06V10/62 , G06V10/764 , G06V10/80 , G06V10/82 , G06V10/77 , G06V10/52 , G06N3/0455 , G06N3/0464 , G06N3/08
Abstract: 本发明涉及目标检测技术领域,尤其涉及一种基于时空特征融合的多相机BEV目标检测方法,方法包括:首先,采集车辆周边的多视图图像,采用图像编码器提取图像特征,将图像特征转换到相机坐标系,再转换到鸟瞰图以提取多视图BEV特征图;然后将特征图馈送到解码器中,利用时空注意力层增强时空特征的融合,使用BEV自注意力层促进特征交互,通过时空可变形聚合从历史帧和当前帧的多个特征图中进行特征采样和加权求和,实现跨多个尺度和视图的多帧特征融合;最后输出最合适的目标检测框和对应的目标类别。本发明可以准确识别遮挡目标和推断物体的运动状态,有效解决夜晚缺乏光照的复杂交通背景下的三维目标检测问题,具有较好的鲁棒性和可扩展性。
-
-
-
-
-