-
公开(公告)号:CN113449656B
公开(公告)日:2022-08-02
申请号:CN202110749180.3
申请日:2021-07-01
申请人: 淮阴工学院
IPC分类号: G06V20/59 , G06V40/10 , G06V10/764 , G06V10/82 , G06N3/04
摘要: 本发明公开了一种基于改进的卷积神经网络的驾驶员状态识别方法,包括:输入驾驶员驾驶视频V1,进行超分辨率处理后输出视频V2。搭建卷积神经网络,构造人体关键点检测识别模型M1。利用yolo算法对视频V2中的人物进行检测,输出单人体视频集V3,捕捉关键帧后,输出单人体关键帧集V4。使用模型M1对V4识别,构造人体关键点坐标集K1。对各种姿势关键点进行坐标点信息标记,计算得到人体姿势对应关键点坐标分布模型M2。对坐标集K1二次检测,使用正常坐标点计算人体关键点之间距离信息,和模型M2对照从而判定驾驶员驾驶状态。本发明利用已经标注好的人体关键点信息,结合机器学习和特征识别技术实现驾驶员驾驶时的姿势检测。
-
公开(公告)号:CN113449656A
公开(公告)日:2021-09-28
申请号:CN202110749180.3
申请日:2021-07-01
申请人: 淮阴工学院
摘要: 本发明公开了一种基于改进的卷积神经网络的驾驶员状态识别方法,包括:输入驾驶员驾驶视频V1,进行超分辨率处理后输出视频V2。搭建卷积神经网络,构造人体关键点检测识别模型M1。利用yolo算法对视频V2中的人物进行检测,输出单人体视频集V3,捕捉关键帧后,输出单人体关键帧集V4。使用模型M1对V4识别,构造人体关键点坐标集K1。对各种姿势关键点进行坐标点信息标记,计算得到人体姿势对应关键点坐标分布模型M2。对坐标集K1二次检测,使用正常坐标点计算人体关键点之间距离信息,和模型M2对照从而判定驾驶员驾驶状态。本发明利用已经标注好的人体关键点信息,结合机器学习和特征识别技术实现驾驶员驾驶时的姿势检测。
-