-
公开(公告)号:CN112906535B
公开(公告)日:2022-03-18
申请号:CN202110170064.6
申请日:2021-02-09
Applicant: 哈尔滨理工大学 , 哈尔滨鹏路智能科技有限公司
IPC: G06V40/20 , G06V10/762 , G06V10/764 , G06V10/80 , G06V10/82 , G06K9/62 , G06N3/04 , G06N3/08
Abstract: 本发明公开了一种基于神经网络的适用于多尺度多目标的摔倒检测方法,主要解决现有摔倒检测算法对小目标检测准确率低及无法实现多目标检测的问题。其方案是:(1)对公开的摔倒检测数据集进行补充,制作摔倒检测融合数据集;(2)对YOLOv4网络进行改造,搭建针对人体特性的YOLOv4摔倒检测网络;(3)使用K‑means算法针对摔倒检测融合数据集更新anchors值;(4)采用Label Smoothing对网络标签进行改造;(5)对改造后YOLOv4网络进行训练和测试。本发明提高了小目标的摔倒检测精度,实现了多目标的摔倒检测,可应用于易发生摔倒的场所,提高对于摔倒人群的救助效率。
-
公开(公告)号:CN110363959A
公开(公告)日:2019-10-22
申请号:CN201910451127.8
申请日:2019-05-28
Applicant: 哈尔滨理工大学
IPC: G08B21/04
Abstract: 本发明公开了一种基于足底压力和三轴加速度传感器的摔倒判定方法,包括:判断足底压力差值是否达到设定阈值;每隔0.25秒采集足底压力与三轴加速度数据一次;求出该0.25秒内的足底压力均值和三轴加速度均值;求出该0.5秒内的足底压力变化率和三轴加速度变化率;判断使用者两只脚0.5秒内的足底压力变化率是否均为负值;判断使用者两只脚0.5秒内的足底压力变化率和三轴加速度变化率的绝对值是否达到各自设定的摔倒阈值;判断连续3秒内的足底压力变化率是否出现正值。本发明利用足底压力和三轴加速度数据变化率实现对使用者的摔倒判定,且有摔倒二次辅助判定保证检测结果的准确性。
-
公开(公告)号:CN110363959B
公开(公告)日:2021-01-22
申请号:CN201910451127.8
申请日:2019-05-28
Applicant: 哈尔滨理工大学
IPC: G08B21/04
Abstract: 本发明公开了一种基于足底压力和三轴加速度传感器的摔倒判定方法,包括:判断足底压力差值是否达到设定阈值;每隔0.25秒采集足底压力与三轴加速度数据一次;求出该0.25秒内的足底压力均值和三轴加速度均值;求出该0.5秒内的足底压力变化率和三轴加速度变化率;判断使用者两只脚0.5秒内的足底压力变化率是否均为负值;判断使用者两只脚0.5秒内的足底压力变化率和三轴加速度变化率的绝对值是否达到各自设定的摔倒阈值;判断连续3秒内的足底压力变化率是否出现正值。本发明利用足底压力和三轴加速度数据变化率实现对使用者的摔倒判定,且有摔倒二次辅助判定保证检测结果的准确性。
-
公开(公告)号:CN108551699B
公开(公告)日:2019-10-01
申请号:CN201810360627.6
申请日:2018-04-20
Applicant: 哈尔滨理工大学
Abstract: 本发明一种眼动控制智能灯以及其控制方法属于智能灯领域;装置包括CMOS红外图像采集模块连接视频解码单元,视频解码单元分别连接人眼定位算法单元和SDRAM控制器单元,人眼定位算法单元依次连接图像预处理单元、眼部动作判断单元、LED控制单元和LED照明灯模块,SDRAM控制器单元连接SDRAM模块;方法包括CMOS红外图像采集模块采集人脸部灰度图像;视频解码单元对采集的视频流数据解码;人眼定位算法单元将解码后的视频流数据进行人眼定位算法处理,得到人眼位置;图像预处理单元根据人眼位置截取人眼部子图像,对图像二值化和去噪;眼部动作判断单元判断眼部动作;LED控制单元控制LED照明灯模块灯的亮度和亮灭;本发明有效解决肢体残疾人士控制灯不方便的技术问题。
-
公开(公告)号:CN108764131A
公开(公告)日:2018-11-06
申请号:CN201810519929.3
申请日:2018-05-25
Applicant: 哈尔滨理工大学
IPC: G06K9/00
CPC classification number: G06K9/00342 , G06K9/00711
Abstract: 一种基于视频处理的自适应阈值多目标摔倒检测方法,其技术要点在于包括以下步骤:步骤一、进行用户图像信息采集,记录下用户正常活动和摔倒时的最小外接矩形内人体图像的高宽比、有效面积比和中心变化;步骤二、利用人体图像高宽比和有效面积比对摔倒的敏感程度不同赋予不同权重,得到新的判定参数实现摔倒判定方式的融合;步骤三、对不同体型用户进行最佳阈值的设定;步骤四、依据步骤一中采集的用户图像信息和步骤二中摔倒判定方式的融合,并结合步骤三设定的用户最佳摔倒阈值,实现目标摔倒检测。该方法克服了穿戴式摔倒检测方案中人易忘和抵触穿戴的缺点,解决了环境式摔倒检测系统带来的误判率高、价格昂贵和布设不便的难题。
-
公开(公告)号:CN113671872A
公开(公告)日:2021-11-19
申请号:CN202110941935.X
申请日:2021-08-17
Applicant: 哈尔滨鹏路智能科技有限公司 , 哈尔滨理工大学
Abstract: 本发明公开了一种基于物联网技术的智能宠物围栏及监控系统,属于智能家居技术领域。包括:主控部分、无线通信部分、远程监控部分和外围设备部分;主控部分包含存储器、微处理器;无线通信部分包含wifi模块;远程监控部分包含摄像头模块、手机终端和云服务器;外围设备包含围栏模块、蜂鸣报警模块、供电模块、扬声器模块、定位模块、定位信号接收模块;本发明可通过物联网技术对宠物行为和位置进行远程监控、诱导宠物回笼、对宠物违规行为发出警告以及手机端远程操控;本发明解决了主人在外出时不能对宠物进行有效约束和管理的问题,减轻主人看管宠物的压力。
-
公开(公告)号:CN110009157A
公开(公告)日:2019-07-12
申请号:CN201910283848.2
申请日:2019-04-10
Applicant: 哈尔滨理工大学
Abstract: 一种满足用户个性化需求的在线值机选座方法属于民航领域;包括通过用户移动通讯设备或者计算机登录客户端与航空公司网络服务器进行连接,并向航空公司网络服务器发送用户的身份信息(可选择是否公开自己的信息)和所要值机的航班信息;然后,航空公司网络服务器将当前航班值机选座情况发送给用户端;用户根据当前航班值机选座情况进行标签选择;用户可通过或者不通过标签最终选择一个座位作为值机座位并发送给航空公司网络服务器;最后航空公司网络服务器更新数据库,用户完成在线值机选座。本发明提供了一种在线值机选座方法,不仅提高了用户办理登机手续的效率,且提高了航空业务的人性化服务,使用户出行拥有一个更加舒适的心情和环境。
-
公开(公告)号:CN108551699A
公开(公告)日:2018-09-18
申请号:CN201810360627.6
申请日:2018-04-20
Applicant: 哈尔滨理工大学
Abstract: 本发明一种眼动控制智能灯以及其控制方法属于智能灯领域;装置包括CMOS红外图像采集模块连接视频解码单元,视频解码单元分别连接人眼定位算法单元和SDRAM控制器单元,人眼定位算法单元依次连接图像预处理单元、眼部动作判断单元、LED控制单元和LED照明灯模块,SDRAM控制器单元连接SDRAM模块;方法包括CMOS红外图像采集模块采集人脸部灰度图像;视频解码单元对采集的视频流数据解码;人眼定位算法单元将解码后的视频流数据进行人眼定位算法处理,得到人眼位置;图像预处理单元根据人眼位置截取人眼部子图像,对图像二值化和去噪;眼部动作判断单元判断眼部动作;LED控制单元控制LED照明灯模块灯的亮度和亮灭;本发明有效解决肢体残疾人士控制灯不方便的技术问题。
-
公开(公告)号:CN119863837A
公开(公告)日:2025-04-22
申请号:CN202411900827.8
申请日:2024-12-23
Abstract: 一种基于双摄像头图像拼接的室内摔倒检测方法、装置、计算机程序及存储介质,涉及计算机视觉技术领域,具体涉及基于计算机视觉的动作识别技术领域。所述检测方法包括以下步骤:S1、检测主监控区域的视频数据中当前时刻的图像中人体目标及其位置的步骤;S2、根据主监控区域的视频数据追踪所述人体目标的位置变化的步骤;S3、判断所述人体目标的当前位置是否进入漏检区域的步骤;S4、提取主监控区域和漏检区域的视频数据中当前时刻的图像中人体目标的特征点,将所述特征点拼接获得完整人体目标的步骤;S5、基于OpenPose模型提取人体目标的骨骼点,判断发生摔倒事件的步骤。适用于健康监测、医疗服务等技术领域。
-
公开(公告)号:CN118840782A
公开(公告)日:2024-10-25
申请号:CN202410867363.9
申请日:2024-07-01
Applicant: 哈尔滨理工大学
IPC: G06V40/20 , G06N3/0464 , G06V10/40 , G06V10/764 , G06V10/774 , G06V10/26 , G06V10/80
Abstract: 本发明公开了一种基于双层判断的跌倒行为检测方法,包括以下步骤:(1)人体检测:将图像输入到改进后的YOLOv8网络中,对人体目标进行提取;(2)将步骤(1)中检测后的结果,输入到Openpose网络进行人体关键点提取并对关键点坐标信息进行分析,使用跌倒特征判断方法对图像进行特征提取及分类;(3)将步骤(2)检测出疑似跌倒类别的图像输入到场景语义分割网络,将场景信息分割为可跌倒区域(床、沙发、椅子)和非跌倒区域(地面);(4)跌倒判断:根据改进后的YOLOv8与Openpose网络结合的方法得到人体颈部以及两脚中点的关键点信息,分析跌倒特征并结合场景语义分割网络判断目标是否发生跌倒行为,该方法可以解决在多人场景中,因人体遮挡以及类跌倒行为导致的漏检、错检问题。
-
-
-
-
-
-
-
-
-