-
公开(公告)号:CN116912312A
公开(公告)日:2023-10-20
申请号:CN202311190948.3
申请日:2023-09-15
Applicant: 湖南大学
IPC: G06T7/70 , G06T7/187 , G06V10/44 , G06V10/762
Abstract: 本发明公开了一种面向复杂曲面构件的三维孔类定位方法,包括:获取点云数据,通过基于邻域夹角比较的方法识别点云数据中的轮廓,得到点云边界轮廓;对点云边界轮廓进行八叉树处理和搜索实现连通域划分,得到全部边界点云的聚类结果;聚类结果为多个圆孔轮廓;判断每个圆孔轮廓是否满足预设条件,若当前圆孔轮廓满足预设条件,则选择基于超定方程求解的方法拟合当前圆孔轮廓的三维圆孔,若当前圆孔轮廓不满足预设条件,则选择基于RANSAC法拟合当前圆孔轮廓的三维圆孔,得到参数定位信息,完成所有圆孔轮廓的定位。可适用于多种场景下的圆孔定位,鲁棒性强,有效提高定位的精度。
-
公开(公告)号:CN116402821B
公开(公告)日:2023-09-22
申请号:CN202310676359.X
申请日:2023-06-08
Applicant: 湖南大学
IPC: G06T7/00 , G06N3/0464 , G06N3/084 , G06V10/52 , G06V10/764 , G06V10/80 , G06V10/82 , G01N21/88
Abstract: 本发明公开了一种基于神经网络的飞机蒙皮涂胶质量缺陷检测方法,包括数据采集,利用相机对飞机蒙皮进行拍照获取图片数据;对获取到的图片数据进行预处理,通过标注软件对数据进行标注获取用于网络训练的数据集;建立一个基于特征擦除和边界细化的缺陷检测网络模型,其中,缺陷检测网络模型包括依次连接的特征提取网络、语义引导的特征擦除模块、多尺度特征融合网络和基于边界细化的缺陷预测网络,利用数据集对网络模型进行训练,并将训练好的模型参数保存;利用训练好的网络模型对直接采集到的蒙皮涂胶图像进行检测,并输出检测结果。可以快速准确地实现飞机蒙皮涂胶缺陷的无损检测,推动蒙皮高质量智能制造进程。
-
公开(公告)号:CN116728291A
公开(公告)日:2023-09-12
申请号:CN202311030811.1
申请日:2023-08-16
Applicant: 湖南大学
IPC: B24B49/12 , B24B27/00 , B25J11/00 , G01M13/00 , G01H1/00 , G06F18/241 , G06N3/0455 , G06N3/0464 , G06V10/764 , G06V10/82 , G06F18/22
Abstract: 本申请的实施例提供了基于边缘计算的机器人打磨系统状态监测方法和装置。所述方法包括获取当前的振动信号;对所述振动信号进行降噪和融合处理,得到振动图像;将所述振动图像,输入至预先训练的故障诊断模型,得到当前打磨系统的故障类型;将所述振动图像,输入至预先训练的质量匹配模型,得到当前打磨系统的相关值和力信号;所述力信号用于确定当前打磨系统的打磨质量;基于所述故障类型、相关值和打磨质量,完成对当前打磨系统的监测。以此方式,仅采集加度传感器的振动信号即可完成故障、打磨质量的统一监测,极大的减少了传感器的数量和类型,在降低了经济成本的同时降低了机器人打磨系统的复杂性。
-
公开(公告)号:CN116402821A
公开(公告)日:2023-07-07
申请号:CN202310676359.X
申请日:2023-06-08
Applicant: 湖南大学
IPC: G06T7/00 , G06N3/0464 , G06N3/084 , G06V10/52 , G06V10/764 , G06V10/80 , G06V10/82 , G01N21/88
Abstract: 本发明公开了一种基于神经网络的飞机蒙皮涂胶质量缺陷检测方法,包括数据采集,利用相机对飞机蒙皮进行拍照获取图片数据;对获取到的图片数据进行预处理,通过标注软件对数据进行标注获取用于网络训练的数据集;建立一个基于特征擦除和边界细化的缺陷检测网络模型,其中,缺陷检测网络模型包括依次连接的特征提取网络、语义引导的特征擦除模块、多尺度特征融合网络和基于边界细化的缺陷预测网络,利用数据集对网络模型进行训练,并将训练好的模型参数保存;利用训练好的网络模型对直接采集到的蒙皮涂胶图像进行检测,并输出检测结果。可以快速准确地实现飞机蒙皮涂胶缺陷的无损检测,推动蒙皮高质量智能制造进程。
-
公开(公告)号:CN115122325A
公开(公告)日:2022-09-30
申请号:CN202210757608.3
申请日:2022-06-30
Applicant: 湖南大学
Abstract: 本发明公开了一种具有视场约束的拟人化机械手鲁棒视觉伺服控制方法,通过安装在机器人手腕的相机传感器采集工件上的二维码图像并发送给工控机;工控机实时识别图像特征以及生成7DOF机器人控制信号,并将该控制信号发送给机器人,完成对视觉特征点的跟踪;模仿人类7自由度手臂结构定义7DOF拟人机械臂的肩、肘和腕关节,计算臂角;将障碍李雅普诺夫函数与臂角相结合设计具有仿人特性的视觉伺服视场约束控制器,间接约束跟踪过程中特征点轨迹保留在相机视场范围内,同时机械臂能够实现基于臂角旋转的仿人运动,设计滑模力矩控制器驱动机器人到达期望特征位置,最后约束特征点不超出相机视野范围,提高视觉伺服任务成功率,以及实现仿人的臂角旋转运动。
-
公开(公告)号:CN118887206B
公开(公告)日:2025-01-21
申请号:CN202411346269.5
申请日:2024-09-26
Applicant: 湖南大学
IPC: G06T7/00 , G06N3/042 , G06N3/045 , G06N3/0464 , G06N3/0495 , G06N3/084 , G06N3/0895 , G06N3/096 , G06V10/74 , G06V10/764 , G06V10/80 , G01N33/00
Abstract: 本发明公开了一种基于对比知识蒸馏的轻量化缺陷检测方法,对缺陷检测数据进行收集和预处理,搭建用于缺陷检测的教师网络模型和轻量化学生网络模型,基于预处理后的数据集对教师网络模型进行训练;将预处理后的数据集中的缺陷图片输入至训练好的教师网络模型和轻量化学生网络模型中得到教师多尺度知识和学生多尺度知识,通过对比学习损失来最小化教师和学生网络模型多尺度知识之间的差异,结合对比学习损失和检测损失组成的总损失利用反向传播算法来对学生网络模型的参数进行更新;将训练好的轻量化学生网络模型部署和应用到自主移动机器人上,实现智能制造产品的动态、实时缺陷检测。推动高效、准确和可持续的智能制造生产。
-
公开(公告)号:CN118857154B
公开(公告)日:2025-01-03
申请号:CN202411346996.1
申请日:2024-09-26
Applicant: 湖南大学
Abstract: 一种双机器人大范围协同测量方法和系统,方法包括:1、测量标志点的坐标;2、对目标物体进行扫描;在扫描时,若视野受限,则进入3中,否则继续扫描,直至扫描完成;3、计算相邻测站的标志点坐标系到跟踪机器人坐标系的旋转矩阵和平移向量,构建相邻测站的旋转矩阵、平移向量的关系式,计算下个测站转到上个测站的旋转矩阵和平移向量,构建下个测站扫描到的点转到上个测站的关系式;4、扫描时,若视野受限,则利用下个测站扫描到的点转到上个测站的关系式对两测站扫描点云进行合并,直至扫描完成。本发明可实现任意相邻两测站间的自动化换站,可将任意测站的扫描结果变换到其他测站的坐标系下,实现测站间扫描结果的合并。
-
公开(公告)号:CN119168977A
公开(公告)日:2024-12-20
申请号:CN202411241891.X
申请日:2024-09-05
Applicant: 湖南大学
IPC: G06T7/00 , G06V10/764 , G06V10/82 , G06N3/084 , G06N3/0455 , G06F18/24 , G06F18/10
Abstract: 本发明属于图像处理技术领域,具体涉及一种磨削机器人图像数据质量评价方法和装置,包括如下步骤:采集磨削机器人进行工作时的一维震动信号,并进行预处理;基于不同参数组合,对经预处理后的一维震动信号执行连续小波变换,生成CWT图像数据集,并记录图像数据生成时间;将CWT图像数据集输入预训练的Swin‑Transformer模型,对CWT图像数据进行分类,并获取分类准确率;基于相关系数,构建图像质量评价指标,获取图像质量评价得分;结合图像数据生成时间、分类准确率、图像质量评价得分,计算得到数据集综合质量评分,以确定最佳CWT图像数据集。
-
公开(公告)号:CN119006569A
公开(公告)日:2024-11-22
申请号:CN202411457938.6
申请日:2024-10-18
Applicant: 湖南大学
Abstract: 本发明公开了一种面向自由曲面的三维圆检测方法,包括:获取曲面点云数据,在点云数据上应用法向量导向的滚球法,以提取曲面圆孔点云边界轮廓;对点云边界轮廓进行基于欧式聚类的边界分割,得到全部边界点云的聚类结果,聚类结果为多个圆孔轮廓;对每个圆孔轮廓进行基于密度的加权迭代算法得到曲面圆孔法向量;将曲面圆孔沿曲面圆孔法向量投影至平面,再将投影后的圆孔点云进行基于超定方程求解的圆孔迭代拟合,得到最终的定位信息。可适用于不同曲度的自由曲面下的圆孔定位,鲁棒性强,有效提高曲面圆孔定位的精度。
-
公开(公告)号:CN118650634B
公开(公告)日:2024-11-15
申请号:CN202411133433.4
申请日:2024-08-19
Applicant: 湖南大学
Abstract: 一种基于深度学习的多机器人柔性物体伺服方法,包括:1、搭建多机协同操作柔性物体装配场景;2、确认柔性物体位置以及抓取点,控制双机器人协同抓取柔性物体;3、双机器人协同柔性物体伺服成多组形状,并记录柔性物体的点云信息和机器人末端位置信息;4、特征提取器提取点云信息的特征向量,并训练形变控制模块;5、收集一组随机生成的形状点云信息并导入到形变控制模块中,输出运动指令,控制双机器人协同抓取柔性物体,并将物体形状伺服到目标形状。本发明设计了一套基于深度学习、柔性物体形状伺服和多机协同控制的框架,提高了机器人对不同材料可形变零件的形状伺服的泛化性,提升柔性部件形状伺服作业任务的复杂度和精确度。
-
-
-
-
-
-
-
-
-