一种多通道视觉信息融合的FOD检测方法及系统

    公开(公告)号:CN114973216A

    公开(公告)日:2022-08-30

    申请号:CN202210641240.4

    申请日:2022-06-08

    Applicant: 山东大学

    Abstract: 本公开涉及异物检测技术领域,提出了一种多通道视觉信息融合的FOD检测方法及系统,方法包括:获取待检测图像,所述待检测图像包括灰度图像、激光散射亮度图像和深度图像;对激光散射亮度图像进行异物边缘提取,得到处理后的激光散射亮度图像;对深度图像进行边缘提取处理,得到深度图像的边缘图;将灰度图像、处理后的激光散射亮度图像和深度图像的边缘图分别作为三种颜色通道融合,得到多通道融合的异物图像;针对多通道融合的异物图像进行异物检测,得到异物的种类和位置。通过多通道融合,融合后的图像同时具有三个通道特征,异物边缘更加明显,克服了人眼目视检测的困难,提高了检测效率和可靠性。

    一种液压作业机械臂的主从遥操作及力反馈控制方法

    公开(公告)号:CN112659120A

    公开(公告)日:2021-04-16

    申请号:CN202011440272.5

    申请日:2020-12-11

    Applicant: 山东大学

    Abstract: 本发明公开了一种液压作业机械臂的主从遥操作及力反馈控制方法,其技术方案为:包括建立液压作业机械臂DH坐标系,获取连杆参数,并得到各连杆间的旋转变换矩阵;基于旋转变换矩阵计算液压作业机械臂雅可比矩阵;根据主操作臂末端位姿信息计算从操作臂末端位姿,并根据从操作臂受力信息反馈至主操作臂,以建立液压作业机械臂主从遥操作控制模型;根据主操作臂、从操作臂之间的力信息交互,并基于雅可比矩阵建立液压作业机械臂力反馈控制模型。本发明能够根据作业机械臂受力情况输出触觉力反馈,能够更好的满足液压作业机械臂在带电作业下的控制需求。

    一种双足机器人踝关节缓冲装置及单腿结构

    公开(公告)号:CN110871858B

    公开(公告)日:2021-03-12

    申请号:CN201911221182.4

    申请日:2019-12-03

    Applicant: 山东大学

    Abstract: 本发明公开了一种双足机器人踝关节缓冲装置及机器人单腿结构,在机器人小腿和机器人足之间设有裸关节,在所述机器人小腿背面设置连接杆,所述连接杆末端通过弹簧与机器人足后跟连接;以踝关节作为杠杆的支点,弹簧的拉力和机器人重力分别位于杠杆两边,形成方向相反的力矩;通过弹簧的拉力力矩平衡机器人的重力力矩,使得机器人重心恢复到机器人平衡的位置。本发明通过设置弹簧能够缓冲因地面凹凸不平导致的机器人震动;通过弹簧的收缩,使得重心在可调节区域内时,机器人有一定的自动调节姿态至稳定站立状态的能力。

    一种结合心理安全以及运动预测的机械臂运动规划方法及系统

    公开(公告)号:CN112454358A

    公开(公告)日:2021-03-09

    申请号:CN202011288651.7

    申请日:2020-11-17

    Applicant: 山东大学

    Abstract: 本发明公开了一种结合心理安全以及运动预测的机械臂运动规划方法及系统,包括步骤:实时采集人的头部、眼神朝向以及脸部表情图像,并对采集的图像进行处理;根据得到头部和眼神的图像,预测人的手臂运动距离;根据预测的手臂运动优化机械臂运动轨迹;根据脸部表情调整机械臂运动速度和步长。本发明实现了在人机交互中实时地检测人的头部或眼神转向以及脸部表情,通过头部或眼神转向以及脸部表情控制机器人的运动速度和步长,同时通过头部或眼神转向预测人的运动,从而在实现动态避障的基础上,优化机械臂的运动轨迹,最终确保人机交互中人的人身安全和心理安全。

    一种智能环境下家庭服务机器人系统及工作方法

    公开(公告)号:CN108092859B

    公开(公告)日:2021-02-02

    申请号:CN201711241827.1

    申请日:2017-11-30

    Applicant: 山东大学

    Abstract: 本发明公开了一种智能环境下家庭服务机器人系统及工作方法,所述智能环境包括公有云、私有云和智能设备。其中:所述公有云实现共享信息的交互与处理;所述私有云储存和处理用户的隐私信息;所述智能设备分布在家庭环境中,为用户和机器人提供服务和相关信息。所述家庭服务机器人系统包括等待模式、调度模式、执行模式和评估模式,所述家庭服务机器人的多种模式可以在工作时进行协同合作和自行转换。本发明的智能环境下家庭服务机器人系统在机器人“轻装上阵”的同时,还可以最大化降低自身的能量消耗,另外,本发明不仅具有强大的计算能力,还可以保证用户个人信息的安全性,可对用户实现提供更优质的服务。

    一种物体在洋流中下落的数值仿真方法及系统

    公开(公告)号:CN111428434A

    公开(公告)日:2020-07-17

    申请号:CN202010280374.9

    申请日:2020-04-10

    Applicant: 山东大学

    Abstract: 本发明提供了一种物体在洋流中下落的数值仿真方法及系统,其中,根据初始水池参数和初始物体参数,建立水池模型和物体模型;根据预设的网格参数对水池模型进行网格划分;根据预设的洋流参数,设置水池模型的边界条件和流体运动参数,形成仿真洋流模型;根据预设的物理参数,建立物体模型在液体中自由下落模型;所述自由下落模型建立步骤包括设置物体模型下落的动网格:生成六面体区域的背景网格;将物体模型下落的子网格通过overset网格嵌入到背景网格中;将物体模型在液体中自由下落模型导入仿真洋流模型中,启动仿真步骤;本发明方便的模拟不同物体在不同洋流情况下的下落的过程,成本更低。

    基于RPD-SMC和RISE的无模型四旋翼无人机轨迹跟踪控制器及方法

    公开(公告)号:CN108445766B

    公开(公告)日:2020-02-21

    申请号:CN201810463987.9

    申请日:2018-05-15

    Applicant: 山东大学

    Abstract: 本发明公开了基于RPD‑SMC和RISE的无模型四旋翼无人机轨迹跟踪控制器及方法,设计了RPD‑SMC控制器。该控制器结合了比例微分‑滑模(PD‑SMC)控制器的优点以及径向基神经网络(RBFNN)的对任意函数在线估计能力。通过引入自适应RBFNN前馈,对扰动及未知动态进行估计并补偿,使PD‑SMC控制器的控制参数选择更加合理,进而减小了控制量,达到节约电能的目的。针对内环控制系统,设计了基于鲁棒误差符号积分(RISE)控制器。RISE控制器能够保证姿态角度快速收敛并对扰动具有强鲁棒性。本发明有益效果:李雅普诺夫稳定性定理分别证明了内环和外环子系统的稳定性。仿真实验结果证明了本发明所提控制器的有效性。

    基于分布式相机网络的多视图多目标跟踪方法及系统

    公开(公告)号:CN110782483A

    公开(公告)日:2020-02-11

    申请号:CN201911012807.6

    申请日:2019-10-23

    Applicant: 山东大学

    Abstract: 本公开公开了基于分布式相机网络的多视图多目标跟踪方法及系统,包括:获取分布式相机网络中的每台相机采集的当前帧视图;从所述当前帧视图中提取被检测目标的矩形边界框;利用预先训练好的卷积神经网络,从矩形边界框内部图像中提取被检测目标的视觉外观信息;将被检测目标在当前帧视图中的图像坐标转换为地面坐标;输出步骤:基于被检测目标的视觉外观信息和地面坐标构建数据关联矩阵;采用匈牙利算法对数据关联矩阵进行处理,输出当前帧视图内被检测目标与已知轨迹的匹配成功或匹配失败的结果。

    基于EKF/EFIR混合滤波的室内移动机器人定位方法和装置

    公开(公告)号:CN107255795B

    公开(公告)日:2020-01-07

    申请号:CN201710441367.0

    申请日:2017-06-13

    Applicant: 山东大学

    Inventor: 田国会 徐元 龚京

    Abstract: 本发明公开了一种基于EKF/EFIR混合滤波的室内移动机器人定位方法和装置,该方法包括:以目标机器人x向和y向的位置和速度以及各UWB参考节点的x向和y向位置作为状态量,以UWB定位标签测量得到的参考节点与定位标签之间的距离作为系统观测量构建UWB机器人定位模型;然后以所述UWB机器人定位模型为基础,利用UWB定位标签测量得到的某参考节点与定位标签之间的距离信息,通过EKF/EFIR混合滤波器估计机器人的位置以及参考节点的位置:首先采用EKF算法进行预估,检测EKF算法性能,若未能达到预设精度,则用EFIR滤波器对EKF算法进行补充,最终得到当前时刻目标机器人最优的位置信息。采用本发明的方法能够提高室内环境下的移动机器人的定位精度。

    一种基于深度学习的端到端视觉里程计及方法

    公开(公告)号:CN106658023B

    公开(公告)日:2019-12-03

    申请号:CN201611191845.9

    申请日:2016-12-21

    Applicant: 山东大学

    Abstract: 本发明公开了一种基于深度学习的端到端视觉里程计及方法,包括级联的光流网络和帧间估计网络,所述光流网络根据数据集中图像序列中的相邻帧,选取输出光流向量和基准数据之间的光流端点误差为损失函数,进行网络训练后,将生成的光流输出,所述帧间估计网络以光流图像作为输入,基于六自由度输出位姿向量与基准数据之间的距离构建损失函数,迭代训练网络,进行帧间估计。本发明采用不同输入输出数据分别训练光流网络模块和帧间估计网络模块,最后将两者级联构成端到端的视觉里程计模块,再进一步深层次训练,优化参数。该层级化训练方法可以大幅降低训练时间,提高训练效率。

Patent Agency Ranking