基于预瞄地面曲面特征的车辆主动悬架控制方法及系统

    公开(公告)号:CN116552181A

    公开(公告)日:2023-08-08

    申请号:CN202310726799.1

    申请日:2023-06-19

    Applicant: 燕山大学

    Abstract: 本发明提供一种基于预瞄地面曲面特征的车辆主动悬架控制方法,步骤如下:S1从预瞄高程地图中提取高程序列;S2设置障碍物的值;S3判断是否满足主动悬架使用条件,满足则执行S4,不满足则进行警示并返回S1;S4将S2中包含障碍物的高程序列Ω离散为曲面尺度空间S5利用高程曲面序列,得到主动悬架调控的目标值和主动悬架作动器的调控量。本发明还提供了相应的系统,包括:GNSS/GPS组合惯性导航系统、3D测距传感器、车辆状态数据库、高程序列获取模块、障碍物判断模块、主动悬架启动模块、高程曲面序列获取模块和主动悬架控制模块。本发明基于预瞄地形,使车辆穿越不平路面时兼顾安全性和舒适性。

    基于有限范围场景内的目标人群跟踪监控方法

    公开(公告)号:CN112200021B

    公开(公告)日:2022-07-01

    申请号:CN202011005357.0

    申请日:2020-09-22

    Applicant: 燕山大学

    Abstract: 本发明公开了一种基于有限范围场景内的目标人群跟踪监控方法,其包括:S1:基于有限视野范围,设计实现整套相机安放采集装置,以适应目标人群活动场景及视野全覆盖的需要;S2:依据目标人群的体型及脸型比例修改检测网络模型的锚框大小及比例,修改检测网络的损失函数,以提高检测的准确性;S3:检测人脸的同时对人脸采用具体的识别网络进行识别,使检测网络与人脸识别网络同时使用的情形下,既能提高检测识别精度,又不降低速度;S4:改进多目标跟踪监控模型,通过具体特征的提取以及具体场景的剪枝提高在目标人群跟踪监控的模型适应性。本设计方案在目标人群看护与预防意外的视觉方案中,实现了无漏、实时的同时,提高了监控的准确性及定位的速度。

    快速判别航空发动机核心零部件装置拆装顺序的方法

    公开(公告)号:CN112200777B

    公开(公告)日:2022-05-17

    申请号:CN202011024196.X

    申请日:2020-09-25

    Applicant: 燕山大学

    Abstract: 本发明公开了一种快速判别航空发动机核心零部件装置拆装顺序的方法,装置包含3D相机、2D相机和发动机核心零部件固定装置,3D相机采集3D点云,2D相机采集关键部位2D图,发动机核心零部件固定装置固定检测物,最终得到采集图像中零件的类别和坐标位置;由采集的图像判断航空发动机核心零部件装置拆装顺序正确与否。判别方法:S1、将正确拆装步骤的标准图像与当前采集点云图配准;S2、将不能够配准的点云图判别为拆装错误,将能够配准的进行2D图像的关键部位相似度比较;S3、将2D图像相似度比较通过的判为拆装正确,否则判为错误。该实现方法能明显提升拆装顺序判定的精度,克服小零件的拆装部位不准确带来判别误差,并且能够端到端的实现。

    基于嵌入式设备改进CenterNet的行人检测方法

    公开(公告)号:CN112580443B

    公开(公告)日:2022-03-15

    申请号:CN202011402378.6

    申请日:2020-12-02

    Applicant: 燕山大学

    Abstract: 本发明提供一种基于嵌入式设备改进CenterNet的行人检测方法,包括以下步骤:步骤S1:使用BiFPN结构改进优化CenterNet的骨干网络;步骤S2:统计行人数据集标注框宽高比,并据此设置好每个标注框对应的高斯核分布;步骤S3:据步骤S2设置好的高斯核分布宽高比改进训练过程中的高斯核以及损失函数;步骤S4:按步骤S2中统计行人检测框宽高比的数据集进行训练;步骤S5:将训练好的模型进行量化、加速,移植到嵌入式设备;步骤S6:在嵌入式设备上开启服务端,对模型移植后的检测效果进行评估。改进后的CenterNet模型能够有效的提取深度特征,避免复杂的网络结构带来的庞大参数量,在嵌入式设备上有更快的运行速度,同时在行人检测的精度上也得到提升。

    基于深度学习的小型零件分拣方法及其分拣系统

    公开(公告)号:CN112170233B

    公开(公告)日:2021-08-06

    申请号:CN202010905536.3

    申请日:2020-09-01

    Applicant: 燕山大学

    Abstract: 本发明公开了一种基于深度学习的小型零件分拣系统及其分拣方法,零件分拣系统包括传送带、光电开关、工业相机、计算机和机械臂,传送带负责运送零件,光电开关负责检测零件是否到达图像采集区域,工业相机负责采集零件的图像,计算机对采集的图像进行处理,得到图中零件的类别和坐标位置;机械臂完成对确定类别和位置的零件的抓取分拣。分拣包括:S1、基于YOLOv4目标检测网络训练零件识别模型,通过训练好的零件识别模型检测图片中的零件,输出图中零件的类别名和坐标信息;S2、将零件图像的像素坐标转化为世界坐标;S3、将零件抓取至对应分拣箱内。该方法及装置通过模型预测得到零件的坐标位置,零件识别准确率更高,识别速度更快。

    用于烟草生产线烟丝杂质的在线检测方法

    公开(公告)号:CN112189877B

    公开(公告)日:2021-07-02

    申请号:CN202011091416.0

    申请日:2020-10-13

    Applicant: 燕山大学

    Abstract: 本发明提供一种用于烟草生产线烟丝杂质的在线检测方法,其包括数据降维和烟丝杂质检测两部分,具体实施步骤为:数据降维通过改进的最佳指数法对烟丝光谱图像数据进行波段选择,实现数据降维,在计算最佳指数前依次对烟丝光谱图像数据进行去噪、采样和分组三次筛选,从而选出信息量较大、波段间相关性较小、数量较少的波段子集;烟丝杂质检测将深度卷积神经网络与邻域去散点算法相结合,先通过训练好的卷积神经网络模型对待识别光谱图像各点进行初步识别,得到分类图像;再通过邻域去散点算法对分类出的杂质进行再识别,剔除分类图像中杂质中的错分的散点。根据光谱图像中各点的反射率对其进行分类,有效减小光照变化对分类结果的影响。

    检测润滑油中的磨损微粒形体的视觉检测系统及检测方法

    公开(公告)号:CN111781127B

    公开(公告)日:2021-06-11

    申请号:CN202010575724.4

    申请日:2020-06-22

    Applicant: 燕山大学

    Abstract: 本发明提供一种检测润滑油中的磨损微粒形体的视觉检测系统,其包括容器模块、视觉模块、图像采集处理模块以及控制执行模块,容器模块包括检测容器、存储容器以及泵送装置,容器模块用于装载检测样本及清洗检测容器;视觉模块包括CCD相机和频闪光源,视觉模块用于获取检测容器及其内部的润滑油的图像;图像采集处理模块包括人机交互和图像处理程序,图像采集处理模块用于图像处理并进行分析以及人机交互;控制执行模块用于控制CCD相机、泵和频闪光源的工作,并且控制检测容器的旋转动作。本发明提出了一种润滑油中的磨损微粒形体视觉检测系统,其能够应用于润滑油中的磨损微粒形体视觉检测,统计不同形态磨损微粒的数量。

    基于改进的OIF和SVM实现高光谱伪装目标识别的方法

    公开(公告)号:CN112232402A

    公开(公告)日:2021-01-15

    申请号:CN202011091430.0

    申请日:2020-10-13

    Applicant: 燕山大学

    Abstract: 本发明公开了一种基于改进的OIF和SVM实现高光谱伪装目标识别的方法,其内容包括:波段选择:在计算各波段组合间的OIF指数之前,依次对全波段进行去噪、采样、分组三次筛选,减小波段组合范围,最后根据各波段组合的OIF指数选出最佳波段组合。伪装目标识别:改进的SVM算法将SVM与二叉树、马氏距离相结合,先基于马氏距离初识别出部分点;再采用基于二叉树的OCSVM对剩余点进行分类,最终将待测图片的所有点分为各个类别及背景。本发明适用于对各种静态伪装目标的识别,算法速度快、准确率高,能有效减小复杂背景及未经训练的新类别对分类结果的影响。

    基于深度学习的佩戴口罩检测方法

    公开(公告)号:CN112232199A

    公开(公告)日:2021-01-15

    申请号:CN202011104863.5

    申请日:2020-10-15

    Applicant: 燕山大学

    Abstract: 本发明公开了一种基于深度学习的佩戴口罩检测方法,其包括:进行佩戴口罩检测模型的训练以及与语音提示模块的连接。佩戴口罩检测模型的训练过程包括:优化yolov3网络检测模型,将yolov3网络模型中的基础网络BN层和卷积层进行合并,并将yolo检测层由三层变为两层,通过k‑means等方法进行参数优化,训练得到鲁棒性较高,检测速度较快的佩戴口罩检测模型,实现对于人们是否佩戴口罩的精确检测。同时,将佩戴口罩检测结果与语音模块相连接,当佩戴口罩检测结果不同时,语音模块发出对应的提示语音,实现语音提醒的实际功能。该方法能够实现对于是否佩戴口罩的快速,精准识别以及准确的语音提示功能,在日常生活工作方面有广泛的应用前景,具有较强的实用性。

    一种基于机器视觉的陶瓷碗次品标记装置及标记方法

    公开(公告)号:CN111812098A

    公开(公告)日:2020-10-23

    申请号:CN202010575717.4

    申请日:2020-06-22

    Applicant: 燕山大学

    Abstract: 本发明提供一种基于机器视觉的陶瓷碗次品标记装置,其包括至少一个摄像头、光源、计算机、PLC控制端、传送带、喷涂装置以及红外传感器,摄像头、红外传感器、计算机以及PLC控制端相互之间通讯连接,红外传感器的输出端连接PLC控制端的输入端,PLC控制端的输出端连接光源的输入端以及摄像头的输入端,摄像头的输出端连接计算机的输入端,计算机的输出端连接PLC控制端的输入端,PLC控制端的输出端连接喷涂装置的输入端,本发明能够基于机器视觉对陶瓷碗次品进行标记,减少重复工作,提高工作效率。

Patent Agency Ranking