-
公开(公告)号:CN118864827A
公开(公告)日:2024-10-29
申请号:CN202411345989.X
申请日:2024-09-26
Applicant: 湖南大学
IPC: G06V10/25 , G06N3/0464 , G06N3/084 , G06V10/764 , G06V10/80 , G06V10/82 , G06V20/64
Abstract: 一种针对大型装配过程全场景的统一化三维目标检测方法,包括:1、构建全场景激光雷达感知平台,采集三维点云数据;2、制作装配制造场景的检测数据集;3、构建三维目标检测模型;4、将训练集中的数据输入到三维目标检测模型中,得到目标分类结果和目标边界框回归结果;5、构建总损失函数,计算目标分类结果与目标边界框回归结果的损失值,循环4至5,直至总损失函数收敛,更新权重,得到训练后的三维目标检测模型;6、对训练后的三维目标检测模型进行测试,得到检测结果。本发明增加了装配效率,提高了装配质量,能及时发现和处理装配过程中的问题,避免了制造业中传统人工装配过程的安全隐患,有助于推动工业智能制造快速且高质量的发展。
-
公开(公告)号:CN118857154A
公开(公告)日:2024-10-29
申请号:CN202411346996.1
申请日:2024-09-26
Applicant: 湖南大学
Abstract: 一种双机器人大范围协同测量方法和系统,方法包括:1、测量标志点的坐标;2、对目标物体进行扫描;在扫描时,若视野受限,则进入3中,否则继续扫描,直至扫描完成;3、计算相邻测站的标志点坐标系到跟踪机器人坐标系的旋转矩阵和平移向量,构建相邻测站的旋转矩阵、平移向量的关系式,计算下个测站转到上个测站的旋转矩阵和平移向量,构建下个测站扫描到的点转到上个测站的关系式;4、扫描时,若视野受限,则利用下个测站扫描到的点转到上个测站的关系式对两测站扫描点云进行合并,直至扫描完成。本发明可实现任意相邻两测站间的自动化换站,可将任意测站的扫描结果变换到其他测站的坐标系下,实现测站间扫描结果的合并。
-
公开(公告)号:CN118544363B
公开(公告)日:2024-10-01
申请号:CN202411009284.0
申请日:2024-07-26
Applicant: 湖南大学
IPC: B25J9/16
Abstract: 本发明公开了一种基于自适应阻抗的多移动机器人协同搬运控制方法,每个移动机器人通过两个有限时间全分布式观测器分别估计参考点的实际位姿和理想位姿及其前二阶微分,然后根据估计的参考点的位姿、机械臂末端执行器的位姿以及协同搬运的闭链约束得到移动机器人末端的理想轨迹和移动机器人末端与参考点之间位姿偏差的估计值;每一个移动机器人的自适应阻抗系统与一个虚拟的能量罐互联,能量罐用于指导阻抗参数的更新,从而保证整个协作自适应阻抗系统的无源性;处理移动机器人未知的系统动力学,利用神经网络设计渐近跟踪自适应神经网络控制器,从而渐近实现理想的自适应阻抗关系。在安全协作的前提下提高了多机器人协同搬运系统的操作精度。
-
公开(公告)号:CN118650634A
公开(公告)日:2024-09-17
申请号:CN202411133433.4
申请日:2024-08-19
Applicant: 湖南大学
Abstract: 一种基于深度学习的多机器人柔性物体伺服方法,包括:1、搭建多机协同操作柔性物体装配场景;2、确认柔性物体位置以及抓取点,控制双机器人协同抓取柔性物体;3、双机器人协同柔性物体伺服成多组形状,并记录柔性物体的点云信息和机器人末端位置信息;4、特征提取器提取点云信息的特征向量,并训练形变控制模块;5、收集一组随机生成的形状点云信息并导入到形变控制模块中,输出运动指令,控制双机器人协同抓取柔性物体,并将物体形状伺服到目标形状。本发明设计了一套基于深度学习、柔性物体形状伺服和多机协同控制的框架,提高了机器人对不同材料可形变零件的形状伺服的泛化性,提升柔性部件形状伺服作业任务的复杂度和精确度。
-
公开(公告)号:CN114529703B
公开(公告)日:2024-09-06
申请号:CN202210192372.3
申请日:2022-02-28
Applicant: 湖南大学
IPC: G06T19/20
Abstract: 本发明公开了一种基于熵增优化的大型复杂构件点云全局匹配方法,包括获取相邻视角场景的三维点云坐标,获得源点云X与目标点云Y,对其下采样分别得到采样点云x与采样点云y;基于采样点云x与采样点云y构建物理能量模型;基于熵增定律,根据物理能量模型计算对采样点云x的当前运动的扭矩T和拉力S,根据扭矩T和拉力S计算当前施加的旋转及平移(Rk,tk),获得变换后的点集;计算当前采样点云x在引力场中的势能并记录当前迭代次数;根据势能或迭代次数确定满足预设的结束条件时,累计所有变换后的点集,对源点云X进行旋转平移,实现源点云X与目标点云Y之间的配准。提高了配准精度与鲁棒性,降低方法的失败率。
-
公开(公告)号:CN117518195A
公开(公告)日:2024-02-06
申请号:CN202311601611.7
申请日:2023-11-28
Applicant: 湖南大学
IPC: G01S17/89
Abstract: 本发明公开了一种基于图稀疏性维护的机器人长周期SLAM方法和系统,包括如下步骤:S1、进行SLAM建图,根据机器人移动时不断测量得到的环境信息生成子地图,所有子地图拼接起来构成初始的元地图;S2、将元地图当中包含的所有子地图栅格化,基于子地图栅格被占用的概率,生成元地图中每一个子地图具有的栅格值质心;S3、检测每次更新的子地图的质心位置,并获得更新子地图与元地图所包含的所有子地图之间的质心距离,对质心距离小于阈值的更新子地图进行合并或删除;S4、在机器人移动测量过程中重复步骤S3至导航任务结束。本发明解决了SLAM在建立地图和定位的过程中图片数据更新冗余的问题,降低了硬件内存占用率,具有良好的鲁棒性。
-
公开(公告)号:CN117370889A
公开(公告)日:2024-01-09
申请号:CN202311318568.3
申请日:2023-10-12
IPC: G06F18/2415 , G01M13/00 , G06V10/764 , G06T7/00 , G06V10/82 , G06N3/0464 , G06N3/047 , G06N3/084
Abstract: 本申请涉及一种机器人打磨装备的可解释故障诊断方法,该方法包括:收集每种打磨装备故障状态下的机械臂末端的振动信号以及被打磨工件的表面图像;将振动信号进行分割处理,将分割处理的振动信号映射为振动图像;提取表面图像的图像特征,并统计图像特征的像素值分布;基于深度学习网络构建故障诊断模块和辅助学习模块;将振动图像分别输入至故障诊断模块、辅助学习模块,并将像素值分布输入至辅助学习模块,进行联合训练,使故障诊断模块学习到工件的打磨质量;将待检测的振动图像输入至联合训练后的故障诊断模块,输出故障诊断结果;故障诊断结果包括故障类型以及工件的打磨质量。该方法为故障诊断结果提供了可信度。
-
公开(公告)号:CN117058404A
公开(公告)日:2023-11-14
申请号:CN202311213263.6
申请日:2023-09-20
Applicant: 湖南大学 , 三一汽车制造有限公司
IPC: G06V10/40 , G06V10/762 , G06V10/764 , G06V10/766
Abstract: 本发明涉及焊接坡口检测技术领域,具体为一种基于三维点云的多类型焊接坡口特征提取方法,包括:1、测量工件的三维点云数据;2、对三维点云数据进行滤波处理;3、构建聚类簇集合并分类,得到聚类结果;4、构建各个聚类簇的分段线性回归误差函数err(r);5、最小化误差函数err(r)以搜索最优r;6、比较当前分段数量下的信息准则值与之前的值,判断是否要更新分段数量,如果需要,保存当前的最优r,循环4至6;否则,将最优r返回,得到拟合曲线;7、计算坡口特征点。本发明通过使用AIC、BIC方法评估模型的质量,定义了多类型焊接坡口特征提取方法,对于各个类型的焊接坡口,均能获得相对精确的特征结果。
-
公开(公告)号:CN116728291B
公开(公告)日:2023-10-31
申请号:CN202311030811.1
申请日:2023-08-16
Applicant: 湖南大学
IPC: B24B49/12 , B24B27/00 , B25J11/00 , G01M13/00 , G01H1/00 , G06F18/241 , G06N3/0455 , G06N3/0464 , G06V10/764 , G06V10/82 , G06F18/22
Abstract: 本申请的实施例提供了基于边缘计算的机器人打磨系统状态监测方法和装置。所述方法包括获取当前的振动信号;对所述振动信号进行降噪和融合处理,得到振动图像;将所述振动图像,输入至预先训练的故障诊断模型,得到当前打磨系统的故障类型;将所述振动图像,输入至预先训练的质量匹配模型,得到当前打磨系统的相关值和力信号;所述力信号用于确定当前打磨系统的打磨质量;基于所述故障类型、相关值和打磨质量,完成对当前打磨系统的监测。以此方式,仅采集加度传感器的振动信号即可完成故障、打磨质量的统一监测,极大的减少了传感器的数量和类型,在降低了经济成本的同时降低了机器人打磨系统的复杂性。
-
公开(公告)号:CN119357647B
公开(公告)日:2025-04-08
申请号:CN202411945629.3
申请日:2024-12-27
Applicant: 湖南大学
IPC: G06F18/213 , G06F18/214 , G06F18/25 , G06F18/22 , G06N3/0442 , G06N3/08
Abstract: 本发明公开了一种用于机器人作业的大模型特征融合哈希自注意力方法,获取目标操作环境下多种复杂操作任务的示教数据;采集操作场景中的多模态信息;构建基于大模型的视觉‑文字精炼及对齐模块,将多模态信息中的声音信号和视觉信号输入,得到最终提取的视觉特征和最终预测的文字特征;采用特征提取器将最终得到的视觉特征和文字特征转换为特征相同的维度,利用设计的哈希交互机器人技能学习模块进行特征交互并进行特征提取,预测相应的机器人的动作;基于示教数据和预设的损失函数对哈希交互机器人技能学习模块进行训练,用于根据实时的视觉和文字输入预测机器人的动作。提高机器人在复杂处理操作环境下的自主学习、技能泛化和精准控制能力。
-
-
-
-
-
-
-
-
-