基于深度卷积神经网络的违禁物品标识方法

    公开(公告)号:CN109948412A

    公开(公告)日:2019-06-28

    申请号:CN201811608398.1

    申请日:2018-12-27

    Applicant: 中南大学

    Abstract: 本发明公开了一种基于深度卷积神经网络的违禁物品标识方法,搭建一个具有三层Inception模块和一层BP神经网络的深度卷积神经网络。以违禁物品样本数据利用SGD随机梯度下降对三个Inception模块进行训练,获取违禁物品样本数据的高阶抽象特征,再通过BP对深度卷积神经网络参数进行优化,从而完成深度卷积神经网络的训练。将训练好的深度卷积神经网络应用到当前违禁物品样本数据,通过输出Softmax层便可获得违禁物品的种类。本发明可以识别各类不同有特定形状的违禁物品,提高安检的安全性。

    一种基于激光点云的道路边沿检测方法

    公开(公告)号:CN109752701A

    公开(公告)日:2019-05-14

    申请号:CN201910049537.X

    申请日:2019-01-18

    Applicant: 中南大学

    Abstract: 本发明公开了一种基于激光点云的道路边沿检测方法,用于获取道路的路沿信息,从而为自动驾驶决策提供相关路况信息。包括:对激光点云数据进行预处理,去除点云中高于路面的噪声点;利用激光点云数据之间的夹角特点,获取单帧点云数据左右路沿点;针对单帧路沿点过于稀疏,采用多帧路沿点进行融合;将激光雷达坐标系上的路沿点转换到车辆坐标系下;对符合条件的路沿点进行曲线拟合,从而得到基于车辆坐标系下的路沿检测线。本发明能够利用velodyne16线激光雷达在实际道路上快速检测出路沿信息,该方法不受天气变化、光照变化等影响,鲁棒性和准确性好。

    一种基于深度学习的水产养殖水质预测方法

    公开(公告)号:CN106198909B

    公开(公告)日:2019-05-10

    申请号:CN201610502867.6

    申请日:2016-06-30

    Applicant: 中南大学

    Abstract: 本发明公开了一种基于深度学习的水产养殖水质预测方法。通过搭建一个具有三层受限玻尔兹曼机(RBM)和一层BP神经网络的深度学习网络。以水质样本数据利用对比散度学习对三个受限玻尔兹曼机进行训练抽取水质样本数据的深度特征,再通过BP对深度学习网络参数进行优化,从而完成深度学习网络的训练。将训练好的深度学习网络应用到当前水质样本数据,在输出层便可获得对水质的预测。本发明可以获得各类不同水质因子之间的特征关联性,提高水质预测的准确度。

    特征融合的RGB-D相机运动估计方法

    公开(公告)号:CN108053445A

    公开(公告)日:2018-05-18

    申请号:CN201711297500.6

    申请日:2017-12-08

    Applicant: 中南大学

    Abstract: 本发明公开了一种特征融合的RGB‑D相机运动估计方法。本发明首先在RGB图像中提取二维点和二维直线特征,根据D图像中的深度信息将二维特征反投影获取三维特征。然后,由RGB测量误差和深度测量误差构建三维点的误差,通过计算二维直线采样点的三维投影与所估计的三维直线的马氏距离来度量直线的不确定性。最后,融合相邻两帧的三维点和三维直线特征匹配对,利用不确定性信息,通过极大似然估计计算RGB‑D相机的运动。本发明融合了对光照变化不敏感的直线特征,合理构建系统的误差模型,提高了相机运动估计的鲁棒性和准确度。

    一种基于激光点云的道路边沿检测方法

    公开(公告)号:CN109752701B

    公开(公告)日:2023-08-04

    申请号:CN201910049537.X

    申请日:2019-01-18

    Applicant: 中南大学

    Abstract: 本发明公开了一种基于激光点云的道路边沿检测方法,用于获取道路的路沿信息,从而为自动驾驶决策提供相关路况信息。包括:对激光点云数据进行预处理,去除点云中高于路面的噪声点;利用激光点云数据之间的夹角特点,获取单帧点云数据左右路沿点;针对单帧路沿点过于稀疏,采用多帧路沿点进行融合;将激光雷达坐标系上的路沿点转换到车辆坐标系下;对符合条件的路沿点进行曲线拟合,从而得到基于车辆坐标系下的路沿检测线。本发明能够利用velodyne16线激光雷达在实际道路上快速检测出路沿信息,该方法不受天气变化、光照变化等影响,鲁棒性和准确性好。

    一种无人车定位方法及系统

    公开(公告)号:CN112762824B

    公开(公告)日:2022-04-22

    申请号:CN202011550860.4

    申请日:2020-12-24

    Abstract: 本发明公开了一种无人车定位方法及系统,使用车载激光雷达传感器建立环境的离线点云地图;获取无人车实时点云;使用深度网络分别提取先验点云地图和实时点云的深度特征;根据离线点云地图和实时点云的特征相似性进行匹配,确定无人车当前所处离线点云地图中的位置;对无人车轨迹平滑处理,矫正定位结果。本发明可以使用深度网络提取深度特征代替手工提取特征,提高无人车自身定位的精确性和稳定性。

    集群机器人建图系统及方法

    公开(公告)号:CN112034851B

    公开(公告)日:2021-06-18

    申请号:CN202010910180.2

    申请日:2020-09-02

    Applicant: 中南大学

    Inventor: 陈白帆 李思羽

    Abstract: 本发明公开了一种集群机器人建图系统及方法,扫地机器人利用激光雷达构建栅格地图,在基于路由器搭建的局域网通信模块中实时发送局部子地图到控制中心,最后在已知机器人初始相对位姿基础上,通过地图坐标系转换融合为完整地图。本发明基于局域网的集群扫地机器人实时建图方法,可以解决在大面积室内环境下建图时间长的问题,同时既可以提高建图质量,又可以实时观察建图效果。

    一种无人车定位方法及系统

    公开(公告)号:CN112762824A

    公开(公告)日:2021-05-07

    申请号:CN202011550860.4

    申请日:2020-12-24

    Abstract: 本发明公开了一种无人车定位方法及系统,使用车载激光雷达传感器建立环境的离线点云地图;获取无人车实时点云;使用深度网络分别提取先验点云地图和实时点云的深度特征;根据离线点云地图和实时点云的特征相似性进行匹配,确定无人车当前所处离线点云地图中的位置;对无人车轨迹平滑处理,矫正定位结果。本发明可以使用深度网络提取深度特征代替手工提取特征,提高无人车自身定位的精确性和稳定性。

    一种基于CPG模型的人形机器人自适应行走框架实现方法

    公开(公告)号:CN108372506A

    公开(公告)日:2018-08-07

    申请号:CN201810470132.9

    申请日:2018-05-16

    Applicant: 中南大学

    CPC classification number: B25J9/163

    Abstract: 本发明公开了一种基于中枢模式发生器(Central Pattern Generator,CPG)模型的人形机器人自适应行走框架实现方法。该发明首先设计CPG网络输出合理的节律控制信号,使得人形机器人能够实现平地上的行走。然后,设计一个基于神经网络的学习模块,这个模块能够学习输出期望的节律补偿信号,作用于原始CPG的输出。最后,设计合理的机器人反馈,使得整个控制框架能够根据环境输出期望的节律控制信号以适应各类斜坡环境。本发明解决了机器人仿生控制领域中CPG模型难以产生精确以及多样的节律信号的问题,提高了CPG模型在机器人控制领域的实用性,对设计更加自适应的人形机器人系统具有重要意义。

Patent Agency Ranking