-
公开(公告)号:CN113927597B
公开(公告)日:2023-04-07
申请号:CN202111226194.3
申请日:2021-10-21
Applicant: 燕山大学
IPC: B25J9/16
Abstract: 本发明涉及深度学习与视觉机器人技术领域,具体涉及基于深度学习的机器人连接件六自由度位姿估计系统,包括如下步骤:利用虚拟现实技术制作数据集;改进DOPE算法对连接件进行6D位姿估计;搭建机器人连接件位姿估计抓取平台;本发明利用虚拟现实技术对数据集做了改进,使数据集背景信息多样化,即使换到新环境也不会影响精度;对于特定的工业场景制作特定的数据集,利用虚拟现实技术进行制作,极大地减轻了人工标注物体的工作量;同时在单目视觉机器人连接件分拣场景中,对遮挡问题利用随机掩模局部处理方法对数据集进行了改进,提高了网络在处理物体遮挡时的准确度。
-
公开(公告)号:CN113927597A
公开(公告)日:2022-01-14
申请号:CN202111226194.3
申请日:2021-10-21
Applicant: 燕山大学
IPC: B25J9/16
Abstract: 本发明涉及深度学习与视觉机器人技术领域,具体涉及基于深度学习的机器人连接件六自由度位姿估计系统,包括如下步骤:利用虚拟现实技术制作数据集;改进DOPE算法对连接件进行6D位姿估计;搭建机器人连接件位姿估计抓取平台;本发明利用虚拟现实技术对数据集做了改进,使数据集背景信息多样化,即使换到新环境也不会影响精度;对于特定的工业场景制作特定的数据集,利用虚拟现实技术进行制作,极大地减轻了人工标注物体的工作量;同时在单目视觉机器人连接件分拣场景中,对遮挡问题利用随机掩模局部处理方法对数据集进行了改进,提高了网络在处理物体遮挡时的准确度。
-
公开(公告)号:CN113688740A
公开(公告)日:2021-11-23
申请号:CN202110984742.2
申请日:2021-08-26
Applicant: 燕山大学
Abstract: 本发明涉及图像处理技术领域,具体涉及一种基于多传感器融合视觉的室内姿势检测方法,包括如下步骤:S1,搭建和训练网络模型;S2,获取实时采集的视频数据和腰带式辅助检测设备的辅助检测参数;S3,将数据输入网络模型获取检测结果,通过卡尔曼滤波器和匈牙利指派算法跟踪患者;S4,将处理之后包含box和检测结果的视频实时同步上传网络中,一旦患者出现跌倒的情况及时发送警报;本发明结合数据融合、监督学习和深度学习方法,对患者的位置、与姿势进行实时跟踪检测和通知,并可短时间内对病人下一个姿势进行预测,实现对病人的跟踪和姿势进行检测。
-
公开(公告)号:CN113674321A
公开(公告)日:2021-11-19
申请号:CN202110980862.5
申请日:2021-08-25
Applicant: 燕山大学
Abstract: 本发明公开了一种基于云端的监控视频下多目标跟踪的方法,属于目标识别跟踪技术领域,包括安装监控相机到指定场合;搭建云端和客户端平台;使用改进后的centernet检测模型对接收的视频帧进行目标检测;使用改进后的deepsort模型对检测到的多目标进行跟踪;在客户端对多目标跟踪输出的视频进行保存、删除以及更新。本发明从智能视频监控出发,对病房看护场景中患者进行轨迹跟踪,并对跟踪算法进行深入研究及改进,实现了高效多目标检测与跟踪监控系统。
-
公开(公告)号:CN113674321B
公开(公告)日:2024-05-17
申请号:CN202110980862.5
申请日:2021-08-25
Applicant: 燕山大学
Abstract: 本发明公开了一种基于云端的监控视频下多目标跟踪的方法,属于目标识别跟踪技术领域,包括安装监控相机到指定场合;搭建云端和客户端平台;使用改进后的centernet检测模型对接收的视频帧进行目标检测;使用改进后的deepsort模型对检测到的多目标进行跟踪;在客户端对多目标跟踪输出的视频进行保存、删除以及更新。本发明从智能视频监控出发,对病房看护场景中患者进行轨迹跟踪,并对跟踪算法进行深入研究及改进,实现了高效多目标检测与跟踪监控系统。
-
公开(公告)号:CN113688740B
公开(公告)日:2024-02-27
申请号:CN202110984742.2
申请日:2021-08-26
Applicant: 燕山大学
IPC: G06V40/20 , G06V20/40 , G06V10/44 , G06V10/774 , G06V10/764 , G06V10/75 , G06V10/82 , G06N3/0464 , G06N3/048 , G06N3/084
Abstract: 本发明涉及图像处理技术领域,具体涉及一种基于多传感器融合视觉的室内姿势检测方法,包括如下步骤:S1,搭建和训练网络模型;S2,获取实时采集的视频数据和腰带式辅助检测设备的辅助检测参数;S3,将数据输入网络模型获取检测结果,通过卡尔曼滤波器和匈牙利指派算法跟踪患者;S4,将处理之后包含box和检测结果的视频实时同步上传网络中,一旦患者出现跌倒的情况及时发送警报;本发明结合数据融合、监督学习和深度学习方法,对患者的位置、与姿势进行实时跟踪检测和通知,并可短时间内对病人下一个姿势进行预测,实现对病人的跟踪和姿势进行检测。
-
公开(公告)号:CN115857688A
公开(公告)日:2023-03-28
申请号:CN202211549340.0
申请日:2022-12-05
Applicant: 燕山大学
Abstract: 本发明公开了一种基于立体视觉加速算法的智能农机手势操作系统,属于目标检测及图像处理领域,包括安装在智能农机驾驶室内的车载摄像头、补光摄像头、机械手臂和显示屏;补光摄像头根据环境进行智能补光,以满足不同环境下的操作条件,车载摄像头则进行数据采集,并使用改进的目标跟踪算法利用显示屏通过控制机械手臂以根据手部位置调整显示屏的位置,达到随动的效果,并利用FPGA对算法进行加速;利用显示屏上的摄像头Leap Motion,进行手部信息采集以及手势分割,并确定手势向量,利用识别到的手势传递给显示屏进行分析比对来执行不同命令。本发明简化了智能农机的操作方式,能够满足在不同环境下的操作需求,提升了工作效率。
-
-
-
-
-
-