基于全域信息融合的楼宇火灾逃生路径规划方法及装置

    公开(公告)号:CN115796412A

    公开(公告)日:2023-03-14

    申请号:CN202211315303.3

    申请日:2022-10-26

    IPC分类号: G06Q10/047 G06Q50/26

    摘要: 本发明公开了一种基于全域信息融合的楼宇火灾逃生路径规划方法及装置,该方法通过融合楼宇物理信息系统、楼宇外部火灾安全救援系统、城市交通调度系统、楼宇BIM系统和城市3D地理信息系统等数据,对楼宇火灾逃生路径进行实时评估,以最短和不拥挤为原则确定基于人身安全系数最优的逃生路径。根据楼宇内部情况结合楼宇周围的消防站的救援实时动态信息求解最优逃生路径,达到灾情管控、人员逃生、救援实施全域信息共融,以确定最佳逃生路径策略,提高楼宇火灾处置的效率和质量,能够从火灾全生命周期演变,获取最大安全空间及逃生路径实时规划,避免信息孤岛或者片面信息导致的人员拥堵或受困。

    一种自动开门的开关室移动机器人及开关门方法

    公开(公告)号:CN114734464B

    公开(公告)日:2022-08-09

    申请号:CN202210652307.4

    申请日:2022-06-10

    IPC分类号: B25J11/00 B25J19/02 H02B3/00

    摘要: 本发明涉及机器人领域,特别涉及一种自动开门的开关室移动机器人,包括钥匙盒、钥匙盘、钥匙传送机构、开锁机构、开关门拨杆,钥匙盒设于钥匙盘上,钥匙传送机构包括第一推杆、第二推杆、导轨、驱动件,第一推杆设于钥匙盘后侧且用于推动钥匙盒进入导轨并卡固于驱动件上,驱动件用于带动钥匙盘由导轨前端滑动至导轨末端,第二推杆设于导轨末端下侧;开锁机构包括安装位、旋转位,安装位可转动的设于旋转位上,第二推杆用于向上推动钥匙进入安装位内,并通过旋转位带动钥匙转动;开关门拨杆可转动的架设于安装位上方,开关门拨杆一端可嵌入门体缝隙设置,并通过转动开门拨杆使门体朝一侧拨开,使得机器人可实现自动巡检并对柜门开关动作的功能。

    一种基于数据优化的手眼标定方法

    公开(公告)号:CN113103238A

    公开(公告)日:2021-07-13

    申请号:CN202110453316.6

    申请日:2021-04-26

    IPC分类号: B25J9/16

    摘要: 本发明提供一种基于数据优化的手眼标定方法,包括如下步骤:A、采集N组标定板姿态数据及对应的机械臂姿态数据;B、计算过渡手眼标定矩阵及变换矩阵,将各变换矩阵拆解为旋转矩阵和平移矩阵;C、若旋转标准差不大于旋转阈值且平移标准差不大于平移阈值,进入步骤E,否则进入步骤D;D、剔除误差最大的数据组,进入步骤B;E、得到对应的理论平移量和理论旋转角,得到真实平移量和真实旋转角;F、若理论平移量与真实平移量之间的第一差值及各理论旋转角与真实旋转角之间的第二差值,均不大于精度阈值,则保存最终手眼标定矩阵,否则,随机剔除一组数据进入步骤B。本发明利用已知真值循环反馈删除数据,获取高精度的手眼标定矩阵。

    一种基于机器视觉的包裹体积测量方法

    公开(公告)号:CN110017773A

    公开(公告)日:2019-07-16

    申请号:CN201910384038.6

    申请日:2019-05-09

    摘要: 本发明公开一种基于机器视觉的包裹体积测量方法,方法步骤包括S1、视觉相机固定安装,标定视觉相机,转换到世界坐标系下;S2、视觉相机高度初始化;S3、将包裹放置于测量台面上,视觉相机采集深度图像A2;S3-1、根据深度图像A2判断得出包裹边缘,判断包裹的大小尺寸类型;S4、对深度图像A2进行图像分割,得出图像的包裹区域;S4-1、计算并获取图像的包裹区域的点云,处理点云拼接并平滑处理,得出包裹点云;步骤S4-2、分析S4-1的包裹点云尺寸,S5、计算出图像的包裹区域的长、宽、高尺寸,计算得出包裹的实际体积V;本发明可替代现有人工完成包裹尺寸测量,可有效提高测量精度、降低人工成本、提高作业效率。

    基于改进SSD网络模型的漏粉检测方法、装置及可读介质

    公开(公告)号:CN115200784B

    公开(公告)日:2022-12-02

    申请号:CN202211126941.0

    申请日:2022-09-16

    摘要: 本发明公开了一种基于改进SSD网络模型的漏粉检测方法、装置及可读介质,涉及漏粉检测领域,通过构建漏粉检测模型,漏粉检测模型包括改进SSD网络模型,其中,改进SSD网络模型包括改进VGG基础网络、改进额外卷积层、多尺度检测层和非极大值抑制层,改进VGG基础网络为在VGG16网络的每个卷积块中增加ASPP网络所构成,改进额外卷积层为在四个卷积层均插入即插即用模块并构建成特征金字塔结构所构成;对漏粉检测模型进行训练,得到经训练的漏粉检测模型;获取待检测图像,将待检测图像输入经训练的漏粉检测模型,得到检测结果。该方法识别精度更高,模型泛化能力更强,实时性更强,并且可降低人工成本,可解决现有技术中漏粉检测人工成本高、精度低等问题。

    一种基于多尺度特征信息融合的MS-YOLOv3工业仪表读数检测方法

    公开(公告)号:CN115115925B

    公开(公告)日:2022-12-02

    申请号:CN202211038075.X

    申请日:2022-08-29

    摘要: 本发明涉及仪表读数检测技术领域,特别涉及一种基于多尺度特征信息融合的MS‑YOLOv3工业仪表读数检测方法。其包括根据MobilenetV3网络结构与SPPNet结构重新构建MS‑YOLOv3检测网络模型,并对其先验框及FPN进行优化;对MS‑YOLOv3检测网络模型进行训练;将待检测仪表盘图像输入至经训练的MS‑YOLOv3检测网络模型中,得到待检测仪表盘图像中的仪表盘关键点并进行图像矫正;对矫正后的仪表盘图像进行预处理;根据预处理后的仪表盘图像确定指针位置方向及示数。通过对网络结构进行重新构造,可以有效提高巡检机器人检测效率,增强了对仪表图像特征的提取能力以及算法检测的稳定性,满足客户关闭柜门下进行检测的需求。

    一种基于深度学习的手眼标定方法

    公开(公告)号:CN113240728A

    公开(公告)日:2021-08-10

    申请号:CN202110377840.X

    申请日:2021-04-08

    摘要: 本发明提供一种基于深度学习的手眼标定方法,包括如下步骤:采集并标注包含标定物的训练图像;训练yolo3模型;设定移动步长S、以及距离阈值D;控制装置随机调节机械臂的位置姿态,相机拍摄以获取调节图像;调用经训练后的yolo3模型对调节图像进行分析,若标定物的尺寸不小于相机视场的一半且实际距离不大于距离阈值D,则拍摄标定图像,并记录机械臂此时的位置姿态数据,否则,按照移动步长S调节机械臂后再次拍摄调节图像,直至再次符合拍摄标定图像;标定图像以满足需要的数量后,进行手眼标定矩阵计算。本发明的过程中无需人工参与,节省人力物力,且计算量小、运算速度快、对标定图像的拍摄要求较低,结果准确率高,鲁棒性更好。

    一种基于重建坐标系的手眼标定方法及装置

    公开(公告)号:CN113160326A

    公开(公告)日:2021-07-23

    申请号:CN202110378420.3

    申请日:2021-04-08

    摘要: 本发明提供一种基于重建坐标系的手眼标定方法及装置,方法包括如下步骤:确定清晰特征点;建立过渡工具坐标系和工件坐标系;计算图像坐标系与工件坐标系的转化关系;计算第一旋转图像上的特征点坐标A和第二旋转图像上的特征点坐标B,以及坐标A与坐标B的中点C;计算中点C在工件坐标系下的坐标,以及C点与过渡工具坐标系原点之间的偏差量;重建新的工具坐标系,该新工具坐标系的原点为过渡工具坐标系原点加上偏差量,根据该新工具坐标系引导机械臂的定位;进行下一次引导定位时,将新工具坐标系作为过渡工具坐标系,并重新建立新的工具坐标系。本发明消除工具坐标系原点与工件旋转中心的误差,有效提高手眼标定精度。

    一种绕杆训练考核系统及其考核数据获取方法

    公开(公告)号:CN110711369A

    公开(公告)日:2020-01-21

    申请号:CN201911095806.2

    申请日:2019-11-11

    IPC分类号: A63B69/00 A63B71/06

    摘要: 本发明涉及体育训练考核系统和方法领域,具体是涉及一种绕杆训练考核系统及其考核数据获取方法,所述考核系统包括考核范围区、标志杆、双目立体视觉装置和后台处理器,所述标志杆为多根间隔排开立式布设在考核范围区内,所述双目立体视觉装置具有双目相机,其在考核范围区周围布设多台从多个视觉角度覆盖考核范围区,所述立体视觉装置通过有线或无线的方式连接后台处理器,双目立体视觉装置将视觉数据传输给后台处理器进行计算得出考核数据;该考核系统可代替人工实现智能考核,且考核系统结构简单,其考核数据获取方法,采用立体视觉数据进行计算得出考核过程数据,数据精确性高,考核过程数据可靠性高。

    基于机器视觉的磁翻板液位读取方法、装置及可读介质

    公开(公告)号:CN115546539A

    公开(公告)日:2022-12-30

    申请号:CN202211170035.0

    申请日:2022-09-26

    摘要: 本发明公开了一种基于机器视觉的磁翻板液位读取方法、装置及可读介质,涉及磁翻板液位读取领域,通过获取磁翻板图像,将磁翻板图像输入经训练的磁翻板目标检测模型,得到磁翻板目标子图像;将磁翻板目标子图像输入经训练的关键点检测模型,得到关键点位置信息,其中,关键点检测模型采用改进的hourglass网络结构;将关键点位置信息进行位置分析,得到磁翻板液位读数。先采用磁翻板目标检测模型定位磁翻板目标,再采用关键点检测模型定位液位计关键刻度与液面,最后通过简单的后处理过程计算液位计读数,算法稳定性好,抗干扰性强,读数精度高,解决现场对液位计进行抄录不仅耗费人力,还无法满足实时的全天候的监测需求,读数精度不高等问题。