-
公开(公告)号:CN112163564B
公开(公告)日:2022-05-17
申请号:CN202011158025.6
申请日:2020-10-26
Applicant: 燕山大学
Abstract: 本发明提出基于人体关键点行为识别与LSTM的跌倒预判方法,该方法基于相邻人体关键点分组方法,进一步把人体分为头部、躯干和腿部三个区域进行行为识别,大大减少了计算量,从而提升了检测效率;在此基础上,通过采用LSTM,即长短期记忆神经网络机制来实现对采集视频的记忆功能,从而实现对人体行为变化的分析与识别功能,最后将识别结果归为三类:跌倒、非跌倒与其他。该方法减少了计算功耗,节约了跌倒检测时间,从而实现了实时检测与跌倒检测预判的功能。
-
公开(公告)号:CN111797938B
公开(公告)日:2022-03-15
申请号:CN202010681784.4
申请日:2020-07-15
Applicant: 燕山大学
IPC: G06K9/62 , G06V10/762 , G06V10/74 , G06V10/80 , G06V10/44 , G06F17/16 , G06F16/29 , A47L11/40 , A47L11/24
Abstract: 本发明提供一种用于扫地机器人的语义信息与VSLAM融合方法,该方法将语义字典中包含语音信息的向量加入到传统字典向量的前面,生成融合传统信息与语义信息的融合字典,加强了VSLAM系统的信息来源,改变了传统VSLAM无法获取环境先验信息的缺点,并且利用语义信息提升了VSLAM系统求解本质矩阵的精度;在回环检测中首先进行语义信息匹配,如果语义信息无法完成匹配,则认为该点是错误的匹配,则不需要再在词袋中查找,提高了系统的鲁棒性与建立室内地图的精确性。
-
公开(公告)号:CN112115818B
公开(公告)日:2022-03-11
申请号:CN202010906573.6
申请日:2020-09-01
Applicant: 燕山大学
Abstract: 本发明公开了一种口罩佩戴识别方法,其内容包括:进行人脸检测模型训练和进行口罩佩戴识别模型训练,人脸检测模型训练过程包括:搭建基于MTCNN的人脸检测网络,训练得到鲁棒性较高的人脸检测模型,实现光谱图像中人脸区域和面部关键点位置的预测,缩小口罩佩戴模型检测范围。口罩识别模型训练过程包括:在人脸光谱图像上标记样本ROI,通过样本ROI文件获取样本坐标信息和类别信息,构建数据集;通过训练SVM分类器,得到模型参数,用于人脸图像中口罩的识别。该方法能够实现自动无接触口罩佩戴检测,对人脸定位速度快,检测速度快,能够准确辨别用衣物遮挡口鼻与正确佩戴口罩两种情况,大大减少因衣物遮挡而造成的误检,准确率高。
-
公开(公告)号:CN112884709A
公开(公告)日:2021-06-01
申请号:CN202110064801.4
申请日:2021-01-18
Applicant: 燕山大学
Abstract: 本发明公开了一种引入注意力机制的yolov3带钢表面缺陷检测与分类方法,其包括:制作带钢图像缺陷数据集,将数据分为深化痕、浅划痕、孔洞三类;然后构建引入注意力模块的yolov3网络模型,其中注意力模块包含通道注意力与空间注意力两部分;进而利用制作好的带钢缺陷数据集进行训练,然后将网络模型以及训练好的权重文件保存;最后使用保存的模型即权重进行带钢缺陷检测。该算法识别准确率高,能够达到86%以上的正确率,与原版yolov3网络相比准确率提高5%;检测帧率大,可以实现45fps的检测速度,并且外界光照影响小,能够满足工业检测需求。
-
公开(公告)号:CN112200021A
公开(公告)日:2021-01-08
申请号:CN202011005357.0
申请日:2020-09-22
Applicant: 燕山大学
Abstract: 本发明公开了一种基于有限范围场景内的目标人群跟踪监控方法,其包括:S1:基于有限视野范围,设计实现整套相机安放采集装置,以适应目标人群活动场景及视野全覆盖的需要;S2:依据目标人群的体型及脸型比例修改检测网络模型的锚框大小及比例,修改检测网络的损失函数,以提高检测的准确性;S3:检测人脸的同时对人脸采用具体的识别网络进行识别,使检测网络与人脸识别网络同时使用的情形下,既能提高检测识别精度,又不降低速度;S4:改进多目标跟踪监控模型,通过具体特征的提取以及具体场景的剪枝提高在目标人群跟踪监控的模型适应性。本设计方案在目标人群看护与预防意外的视觉方案中,实现了无漏、实时的同时,提高了监控的准确性及定位的速度。
-
公开(公告)号:CN112163564A
公开(公告)日:2021-01-01
申请号:CN202011158025.6
申请日:2020-10-26
Applicant: 燕山大学
Abstract: 本发明提出基于人体关键点行为识别与LSTM的跌倒预判方法,该方法基于相邻人体关键点分组方法,进一步把人体分为头部、躯干和腿部三个区域进行行为识别,大大减少了计算量,从而提升了检测效率;在此基础上,通过采用LSTM,即长短期记忆神经网络机制来实现对采集视频的记忆功能,从而实现对人体行为变化的分析与识别功能,最后将识别结果归为三类:跌倒、非跌倒与其他。该方法减少了计算功耗,节约了跌倒检测时间,从而实现了实时检测与跌倒检测预判的功能。
-
公开(公告)号:CN112115818A
公开(公告)日:2020-12-22
申请号:CN202010906573.6
申请日:2020-09-01
Applicant: 燕山大学
Abstract: 本发明公开了一种口罩佩戴识别方法,其内容包括:进行人脸检测模型训练和进行口罩佩戴识别模型训练,人脸检测模型训练过程包括:搭建基于MTCNN的人脸检测网络,训练得到鲁棒性较高的人脸检测模型,实现光谱图像中人脸区域和面部关键点位置的预测,缩小口罩佩戴模型检测范围。口罩识别模型训练过程包括:在人脸光谱图像上标记样本ROI,通过样本ROI文件获取样本坐标信息和类别信息,构建数据集;通过训练SVM分类器,得到模型参数,用于人脸图像中口罩的识别。该方法能够实现自动无接触口罩佩戴检测,对人脸定位速度快,检测速度快,能够准确辨别用衣物遮挡口鼻与正确佩戴口罩两种情况,大大减少因衣物遮挡而造成的误检,准确率高。
-
公开(公告)号:CN112766165B
公开(公告)日:2022-03-22
申请号:CN202110076029.8
申请日:2021-01-20
Applicant: 燕山大学
Abstract: 本发明提出了一种基于深度神经网络与全景分割方法相结合的跌倒预判方法,其能够高效快速的实现跌倒检测预判功能,结合了深度神经网络与图像全景分割方法,对即将发生的跌落风险进行短期实时评估和通知,以及对未来风险进行长期行为学习和预测。本发明采用深度学习中的深度神经网络(DNN)构建全景分割网络,然后通过图像全景分割算法对跌倒检测中的视频图像进行像素级分割,从而实现被看护者与所处环境情况的场景理解,对危险环境实现跌倒预判。
-
公开(公告)号:CN112715403A
公开(公告)日:2021-04-30
申请号:CN202011593466.9
申请日:2020-12-29
Applicant: 燕山大学
Abstract: 本发明公开一种牲畜圈自动供水方法及其养殖用自动供水装置,包括摄像头、PC端、PLC控制端、水槽、挡光板和浮漂,摄像头位于牲畜圈上方,对牲畜圈进行实时监控并检测牲畜圈中牲畜的个数;PLC控制器根据计算机反馈的信号来执行放水及停水动作,并且控制摄像头的开启;计算机根据输入检测的牲畜的数量,控制是否向水槽中给水,当牲畜达到设定数量时在此基础上决定是否对水槽进行注水,当达到设定的高阈值A时自动停止注水,当低于一定阈值B时继续注水。该牲畜圈供水装置操作简单,整体实用性强,同时具有实时目标检测的功能,辅助牲畜群的养殖,具有实用性。
-
公开(公告)号:CN112189877A
公开(公告)日:2021-01-08
申请号:CN202011091416.0
申请日:2020-10-13
Applicant: 燕山大学
Abstract: 本发明提供一种用于烟草生产线烟丝杂质的在线检测方法,其包括数据降维和烟丝杂质检测两部分,具体实施步骤为:数据降维通过改进的最佳指数法对烟丝光谱图像数据进行波段选择,实现数据降维,在计算最佳指数前依次对烟丝光谱图像数据进行去噪、采样和分组三次筛选,从而选出信息量较大、波段间相关性较小、数量较少的波段子集;烟丝杂质检测将深度卷积神经网络与邻域去散点算法相结合,先通过训练好的卷积神经网络模型对待识别光谱图像各点进行初步识别,得到分类图像;再通过邻域去散点算法对分类出的杂质进行再识别,剔除分类图像中杂质中的错分的散点。根据光谱图像中各点的反射率对其进行分类,有效减小光照变化对分类结果的影响。
-
-
-
-
-
-
-
-
-