一种基于改进的卷积神经网络的驾驶员状态识别方法

    公开(公告)号:CN113449656A

    公开(公告)日:2021-09-28

    申请号:CN202110749180.3

    申请日:2021-07-01

    申请人: 淮阴工学院

    IPC分类号: G06K9/00 G06K9/62 G06N3/04

    摘要: 本发明公开了一种基于改进的卷积神经网络的驾驶员状态识别方法,包括:输入驾驶员驾驶视频V1,进行超分辨率处理后输出视频V2。搭建卷积神经网络,构造人体关键点检测识别模型M1。利用yolo算法对视频V2中的人物进行检测,输出单人体视频集V3,捕捉关键帧后,输出单人体关键帧集V4。使用模型M1对V4识别,构造人体关键点坐标集K1。对各种姿势关键点进行坐标点信息标记,计算得到人体姿势对应关键点坐标分布模型M2。对坐标集K1二次检测,使用正常坐标点计算人体关键点之间距离信息,和模型M2对照从而判定驾驶员驾驶状态。本发明利用已经标注好的人体关键点信息,结合机器学习和特征识别技术实现驾驶员驾驶时的姿势检测。

    一种基于改进的卷积神经网络的驾驶员状态识别方法

    公开(公告)号:CN113449656B

    公开(公告)日:2022-08-02

    申请号:CN202110749180.3

    申请日:2021-07-01

    申请人: 淮阴工学院

    摘要: 本发明公开了一种基于改进的卷积神经网络的驾驶员状态识别方法,包括:输入驾驶员驾驶视频V1,进行超分辨率处理后输出视频V2。搭建卷积神经网络,构造人体关键点检测识别模型M1。利用yolo算法对视频V2中的人物进行检测,输出单人体视频集V3,捕捉关键帧后,输出单人体关键帧集V4。使用模型M1对V4识别,构造人体关键点坐标集K1。对各种姿势关键点进行坐标点信息标记,计算得到人体姿势对应关键点坐标分布模型M2。对坐标集K1二次检测,使用正常坐标点计算人体关键点之间距离信息,和模型M2对照从而判定驾驶员驾驶状态。本发明利用已经标注好的人体关键点信息,结合机器学习和特征识别技术实现驾驶员驾驶时的姿势检测。

    一种基于改进的卷积神经网络的施工图图元自适应识别方法

    公开(公告)号:CN111914612A

    公开(公告)日:2020-11-10

    申请号:CN202010436478.4

    申请日:2020-05-21

    申请人: 淮阴工学院

    摘要: 发明公开了一种基于改进的卷积神经网络的施工图图元自适应识别方法,包括:采集施工图图纸文件D1,构成施工图图像数据集D4,进行预处理,得到数据集D5;对D5进行数据增强,使用LabelImg对数据增强后的数据集D6进行标注,将标注后的数据集D7分为训练集D8与测试集D9;使用BN算法和PReLU激活函数改进卷积神经网络,将D8输入预训练模型中进行训练,得到施工图图元自适应识别模型ARM;将D9输入ARM,输出图元识别结果集PT Result;开放施工图图元自适应识别接口ARM API,用户通过Web平台上传施工图图纸Drawing,ARM API对Drawing进行图元自适应识别,将识别出的图元信息Primitive Info返回Web平台。本发明可对施工图中的图元进行自适应识别,可识别多个目标,精准度高,提高了施工图图元的识别率。