一种基于质量及相似评估在线模板更新的目标跟踪方法

    公开(公告)号:CN114372997B

    公开(公告)日:2024-09-10

    申请号:CN202111476809.8

    申请日:2021-12-06

    Applicant: 燕山大学

    Abstract: 本发明公开了一种基于质量及相似评估在线模板更新的目标跟踪方法,包括如下步骤:S1、对初始模板帧进行增广生成N个增量模板#imgabs0#建立大小为M的模板池;S2、通过目标跟踪模块对模板帧和搜索帧进行特征提取,然后卷积响应得到响应得分图,根据质量评估指标对当前新的模板#imgabs1#进行质量评估;S3、通过余弦相似度判断通过了质量评估的模板#imgabs2#与模板池中的模板之间的相似度,判断新模板是否需要加入模板池中;S4、通过模板的不同权重,模板池中的模板进行融合得到ti时刻的最终模板;S5、通过模板帧和搜索帧的特征提取得到的特征图,与不同步长及长宽比的空洞卷积层卷积之后进行特征融合。

    一种多约束双目鱼眼相机标定与空间点定位的方法

    公开(公告)号:CN114998448B

    公开(公告)日:2024-08-16

    申请号:CN202210655001.4

    申请日:2022-05-19

    Applicant: 燕山大学

    Abstract: 本发明公开了一种多约束双目鱼眼相机标定与空间点定位的方法。首先使用左右两台双目鱼眼相机拍摄圆形标定物得到原始畸变图像,采用高斯拟合的全局阈值算法对畸变图像进行阈值分割,获取标定圆的边界,计算所述畸变图像中标定圆的质心作为特征点,然后采用Kannala模型计算初始双目相机参数,根据初始参数反投影得到空间点,计算空间几何误差、极线约束误差、距离约束误差、垂直约束误差以及共线约束误差并建立优化目标函数,采用列文伯格‑马夸尔特法对优化目标函数进行求解,获得高精度最优的双目相机参数。

    一种基于亮度补偿残差网络的水下图像增强方法

    公开(公告)号:CN114881879A

    公开(公告)日:2022-08-09

    申请号:CN202210541384.2

    申请日:2022-05-17

    Applicant: 燕山大学

    Abstract: 本发明公开了一种基于亮度补偿残差网络的水下图像增强方法,包括获取数据集;数据预处理:将图片裁剪为相同尺寸的大小,将RGB类型的图片转换为HSV类型,提取V通道并单独保存;模型训练:将RGB类型的训练集放入RGB多尺度残差子网络进行训练,得到增强网络1和输出结果;将V类型的训练集放入V通道亮度补偿子网络进行训练,得到增强网络2和输出结果;将两个的输出结果送入增强重构子网络得到最终的输出结果;模型测试:将测试集分别放入训练好的增强网络1和增强网络2,将输出结果一起送入增强重构子网络即可得到增强后的水下图片,本发明能够解决水下图像颜色失真、模糊、低对比度问题,通过亮度补偿进一步提高图像的细节信息。

    一种基于GPS定位的堆取料机防碰撞方法及系统

    公开(公告)号:CN110356862B

    公开(公告)日:2021-08-31

    申请号:CN201910470364.9

    申请日:2019-05-31

    Abstract: 本发明提供了一种基于GPS定位的堆取料机防碰撞方法及系统,该方法包括:根据获取的堆场和堆取料机单机的经纬度坐标信息分别对各堆取料机单机的大臂和配重进行轮廓建模,然后根据堆场和各单机的经纬度坐标信息计算选取的各防碰撞特征点的经纬度坐标信息,并计算各堆取料机单机之间的防碰撞目标距离,进而根据各堆取料机单机之间的防碰撞目标距离控制对应的堆取料机单机进行无碰撞作业。采用上述技术方案,克服了现有技术中防碰撞计算精确度过低的问题,同时解决了传统方法中计算过程繁琐,数据冗余量大的问题,不仅对单机的底盘、大臂和配重实现全方位防碰撞,且保障了防碰撞计算的高效性和精确性,相当程度上促进了无人化堆取料技术的发展。

    一种基于改进YOLOv3-tiny算法的港口抓斗检测方法

    公开(公告)号:CN110826520A

    公开(公告)日:2020-02-21

    申请号:CN201911115118.8

    申请日:2019-11-14

    Applicant: 燕山大学

    Abstract: 本发明提供一种基于改进YOLOv3-tiny算法的港口抓斗检测方法,包括:将图像提取装置正对抓斗安装,并将其设置为跟随抓斗的工作模式;采集港口抓斗的图像数据,获取网络训练样本以及测试样本;利用测距传感器、角度传感器测得水平面与垂直面的大臂旋转角度信息和抓斗所在的三维信息共同确定了抓斗的唯一位置信息;利用改进YOLOv3-tiny算法对网络模型进行训练,获得抓斗检测模型;利用训练后的抓斗检测模型权重对测试集的图片以及港口作业视频进行测试,并得到测试结果。本发明在抓斗运行的过程中提高了作业速度,缩短循环周期,自动实现对抓斗位置的实时检测,使得作业效率得到提高的同时又节省了人力资本,在港口作业方面具有很大的价值与意义。

    基于三维重建技术的C80车体表面异物检测装置及方法

    公开(公告)号:CN103901499B

    公开(公告)日:2017-04-12

    申请号:CN201410156305.1

    申请日:2014-04-18

    Applicant: 燕山大学

    Abstract: 一种基于三维重建技术的C80车体表面异物检测装置,其包括在待翻敞车车厢组进入翻车房前某一固定位置设置的二维激光测距传感器,该二维激光测距传感器通过网线与检测控制计算机相连。本发明的检测方法主要是:通过扫描得到包含距离、角度信息的点云集数据在三维坐标系上建立三维可视图,并结合图像处理和模式识别技术计算敞车表面凹凸形状及大小,判断出敞车上是否存在人员的火车表面异物检测及报警装置。本发明的装置虽然简单,但能使车体检测实现自动化;本发明的检测方法可靠、效率高、检测结果准确,避免了人员目测视觉误差而导致的人为因素。

    机器视觉皮带撕裂检测方法

    公开(公告)号:CN101986143B

    公开(公告)日:2013-01-30

    申请号:CN201010257742.4

    申请日:2010-08-11

    Applicant: 燕山大学

    Abstract: 一种机器视觉皮带撕裂检测装置,其“一”字线激光器垂直设在皮带输送机的输送皮带和回程皮带之间的固定物体上,在上述固定物体上设有带图像采集卡的取像装置,该设在固定物体上的取像装置通过相机信号传输线与内有软件的普通计算机相连。本发明的检测方法是:取像装置获取到包含线激光条纹的皮带表面图像后经图像采集卡传递到检测控制计算机,检测控制计算机采用灰度重心法对条纹中心进行粗略提取,在粗略提取的光条中心基础上利用sobel梯度算子求取激光条纹法线方向,在法线方向上基于高斯曲线拟合法提取光条中心的亚像素坐标,对提取得到的光条中心线进行断点检测。本发明能准确、高效、稳定地检测出输送机皮带工作时可能产生撕裂事故。

    机器视觉皮带撕裂检测装置

    公开(公告)号:CN201890600U

    公开(公告)日:2011-07-06

    申请号:CN201020297898.0

    申请日:2010-08-11

    Applicant: 燕山大学

    Abstract: 一种机器视觉皮带撕裂检测装置,其“一”字线激光器垂直设在皮带输送机的输送皮带和回程皮带之间的固定物体上,在上述固定物体上设有带图像采集卡的取像装置,该设在固定物体上的取像装置通过相机信号传输线与内有软件的普通计算机相连。本实用新型的检测方法是:取像装置获取到包含线激光条纹的皮带表面图像后经图像采集卡传递到检测控制计算机,检测控制计算机采用灰度重心法对条纹中心进行粗略提取,在粗略提取的光条中心基础上利用sobel梯度算子求取激光条纹法线方向,在法线方向上基于高斯曲线拟合法提取光条中心的亚像素坐标,对提取得到的光条中心线进行断点检测。本实用新型能准确、高效、稳定地检测出输送机皮带工作时可能产生撕裂事故。

Patent Agency Ranking