-
公开(公告)号:CN113392701B
公开(公告)日:2024-04-26
申请号:CN202110504527.8
申请日:2021-05-10
Applicant: 南京师范大学
IPC: G06V20/10 , G06V10/764 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/09
Abstract: 本发明公开了一种基于YN‑Net卷积神经网络的输电线路障碍物检测方法,包括如下步骤:基于输电线路巡检机器人搭载的ZED双目摄像头采集输电线路障碍物图像;对采集到的输电线路障碍物图像进行预处理并制成数据集;搭建YN‑Net卷积神经网络,对YN‑Net卷积神经网络进行充分训练,得到训练好的YN‑Net卷积神经网络模型;使用YN‑Net卷积神经网络模型对采集到的输电线路障碍物实时图像进行分类,根据输入图像中存在障碍物与不存在障碍物的概率值来判断输电线路巡检机器人前方是否存在障碍物。本发明能够提升卷积神经网络的实时性与可靠性,解决了目前输电线路障碍物检测算法准确率不高,实时性不好等问题,并且具有很高的可移植性,可应用于嵌入式开发平台,应用前景广泛。
-
公开(公告)号:CN112818871B
公开(公告)日:2024-03-29
申请号:CN202110153554.5
申请日:2021-02-04
Applicant: 南京师范大学
IPC: G06V20/40 , G06V20/52 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种基于半分组卷积的全融合神经网络的目标检测方法,包括:搭建半分组卷积模块;搭建全融合神经网络;获取电梯厢内目标物的数据集;将数据集中的图像按比例随机分为训练数据集和测试数据集,并对训练数据集图像中的目标物和人进行标注,生成标签文件,将训练数据集全部图像及标签文件输入全融合神经网络进行训练,得到训练好的权重文件;获得检测到的目标物和人在图像中的位置及检测置信度;筛选出可信的目标,去除重复的目标框,判断目标物是否已经进入电梯厢。本发明在保证特征提取的质量同时,有效减少了卷积运算的参数量,提高了计算速度;具有模型轻量、目标检测速度快、准确率高的优点,可应用在性能有限的嵌入式设备上。
-
公开(公告)号:CN113392701A
公开(公告)日:2021-09-14
申请号:CN202110504527.8
申请日:2021-05-10
Applicant: 南京师范大学
Abstract: 本发明公开了一种基于YN‑Net卷积神经网络的输电线路障碍物检测方法,包括如下步骤:基于输电线路巡检机器人搭载的ZED双目摄像头采集输电线路障碍物图像;对采集到的输电线路障碍物图像进行预处理并制成数据集;搭建YN‑Net卷积神经网络,对YN‑Net卷积神经网络进行充分训练,得到训练好的YN‑Net卷积神经网络模型;使用YN‑Net卷积神经网络模型对采集到的输电线路障碍物实时图像进行分类,根据输入图像中存在障碍物与不存在障碍物的概率值来判断输电线路巡检机器人前方是否存在障碍物。本发明能够提升卷积神经网络的实时性与可靠性,解决了目前输电线路障碍物检测算法准确率不高,实时性不好等问题,并且具有很高的可移植性,可应用于嵌入式开发平台,应用前景广泛。
-
公开(公告)号:CN115220448A
公开(公告)日:2022-10-21
申请号:CN202210831716.0
申请日:2022-07-15
Applicant: 南京师范大学
IPC: G05D1/02
Abstract: 本发明公开了一种基于稀疏化可视图的机器人快速路径规划方法,其特征在于,包括:针对激光雷达采集得到的点云信息,通过PCL点云库进行点云降采样得到稀疏点云;将得到的稀疏点云使用空洞网格结构进行存储,并且将稀疏点云平面投影得到二值图像,进行图像模糊得到模糊图像;将模糊图像进行轮廓点的提取,得到障碍物的轮廓特征点,并将障碍物的轮廓特征点进行过滤;通过过滤后的障碍物的轮廓特征点构建可视图;使用双向BFS搜索寻找最优路径,并且在路径规划的过程中,剔除障碍物。本发明算法运行速度快,具有良好的实时性;缩短了构建地图和路径规划所需要的时间,同时减少了机器人在未知环境中探索造成的空间浪费,具有抗复杂环境干扰性强等优点。
-
公开(公告)号:CN114429584B
公开(公告)日:2025-05-13
申请号:CN202111318533.0
申请日:2021-11-09
Applicant: 南京师范大学
IPC: G06V20/10 , G06V10/22 , G06V10/26 , G06V10/774 , G06V10/764 , G06V10/82 , G06N3/04 , G06N3/08
Abstract: 本发明公开了一种基于类别损失和差值检测的多目标小物体识别方法,包括如下步骤:采集棋盘初始图像,标定棋盘图像坐标,根据坐标分割棋盘图像;对分割后的棋盘图像进行预处理,使用搭建好的深度学习网络模型对处理后的图像进行分类,将分类结果转换为棋局信息;采集棋盘图像P1,棋手进行一步行棋后,再次采集棋盘图像P2;根据棋盘图像P1和棋盘图像P2,采用差值检测方法对行棋的起点和终点进行合理性判断,更新棋局信息。本发明实现了对中国象棋从开局到每一步行棋的检测识别,具有速度快、鲁棒性高等优点,且受光线影响较小,并且可扩展至其他棋类的检测,在中国象棋对弈人机交互、普及人工智能方面具有重要意义。
-
公开(公告)号:CN112947434B
公开(公告)日:2024-02-27
申请号:CN202110153481.X
申请日:2021-02-04
Applicant: 南京师范大学
IPC: G05D1/43 , G05D1/246 , G05D1/644 , G05D1/247 , G05D109/10
Abstract: 本发明公开了一种基于局部最优卷积评价的机器人路径规划方法,包括:移动机器人建立工作环境的二维网格化地图,确定出发点与目标点位置;移动机器人感知当前位置周围的环境信息,从候选移动方向中筛选出可行移动方向;计算各可行移动方向上的单位向量在目标点距离函数负梯度方向上的投影,获取局部最优移动方向;利用卷积评价指标检验局部最优移动方向的合理性;在初次路径规划未能找到可行路径时,进行二次路径规划,并取消对局部最优移动方向合理性的检验环节。本发明能够实现移动机器人在未知环境下的路径规划,决策思路符合移动机器人的实际运行特点,具有运算量小、遍历性强、运行效率高的优点。
-
公开(公告)号:CN112947434A
公开(公告)日:2021-06-11
申请号:CN202110153481.X
申请日:2021-02-04
Applicant: 南京师范大学
IPC: G05D1/02
Abstract: 本发明公开了一种基于局部最优卷积评价的机器人路径规划方法,包括:移动机器人建立工作环境的二维网格化地图,确定出发点与目标点位置;移动机器人感知当前位置周围的环境信息,从候选移动方向中筛选出可行移动方向;计算各可行移动方向上的单位向量在目标点距离函数负梯度方向上的投影,获取局部最优移动方向;利用卷积评价指标检验局部最优移动方向的合理性;在初次路径规划未能找到可行路径时,进行二次路径规划,并取消对局部最优移动方向合理性的检验环节。本发明能够实现移动机器人在未知环境下的路径规划,决策思路符合移动机器人的实际运行特点,具有运算量小、遍历性强、运行效率高的优点。
-
公开(公告)号:CN112818871A
公开(公告)日:2021-05-18
申请号:CN202110153554.5
申请日:2021-02-04
Applicant: 南京师范大学
Abstract: 本发明公开了一种基于半分组卷积的全融合神经网络的目标检测方法,包括:搭建半分组卷积模块;搭建全融合神经网络;获取电梯厢内目标物的数据集;将数据集中的图像按比例随机分为训练数据集和测试数据集,并对训练数据集图像中的目标物和人进行标注,生成标签文件,将训练数据集全部图像及标签文件输入全融合神经网络进行训练,得到训练好的权重文件;获得检测到的目标物和人在图像中的位置及检测置信度;筛选出可信的目标,去除重复的目标框,判断目标物是否已经进入电梯厢。本发明在保证特征提取的质量同时,有效减少了卷积运算的参数量,提高了计算速度;具有模型轻量、目标检测速度快、准确率高的优点,可应用在性能有限的嵌入式设备上。
-
公开(公告)号:CN114425773B
公开(公告)日:2024-03-26
申请号:CN202111368871.5
申请日:2021-11-18
Applicant: 南京师范大学
Abstract: 本发明公开了一种基于深度学习及龙芯派的对弈机器人系统及其对弈方法,该方法包括:拍摄棋盘状态图像,送入棋盘检测网络检测棋盘信息,并根据棋盘信息进行对弈人行棋状态判断;将输出的棋盘信息,转换成FEN码送入自升级云端决策网络,决策后给出行棋指令;将给出的行棋指令变换成三维坐标的移动指令,根据三维坐标的移动指令,利用机械臂移动逆运算算法,控制机械臂抓取和移动棋子。本发明通过系统可自主判断对弈人是否结束行棋,大大增强了人机交互性,自升级云端决策网络,提高决策速度,也通过自升级方法不断提高决策质量,具有人机对弈交互性高,行棋决策速度快、水平高,可支持的人机对弈系统体积小巧及便于移动携带的优点。
-
公开(公告)号:CN114147704B
公开(公告)日:2023-09-22
申请号:CN202111367940.0
申请日:2021-11-18
Applicant: 南京师范大学
IPC: B25J9/16
Abstract: 本发明公开了一种基于深度视觉与增量闭环的机械臂精准定位及抓取方法,包括:识别待抓取的物体位置,获取待抓取物体的机械臂空间坐标;通过逆运动学解析算法,将机械臂空间坐标信息转换为机械臂舵机的角度信息;获得含有待抓取物体的目标图像;对目标图像中的待抓取物体进行形心位置计算;判断待抓取物体形心是否在深度摄像头中心线上,若不在,则通过待抓取物体的形心位置来计算增量;将增量作为反馈信号输送到逆运动学解析算法,得到更新后的待抓取物体的机械臂空间坐标,驱动机械臂抓取物体。本发明同时兼顾了传感器的设备价格与机械臂执行效率,机械臂的定位准确度和抓取物体的成功率都有显著的提高。
-
-
-
-
-
-
-
-
-