-
公开(公告)号:CN117474914A
公开(公告)日:2024-01-30
申请号:CN202311812865.3
申请日:2023-12-27
Applicant: 湖南大学
IPC: G06T7/00 , G06N3/045 , G06N3/0464 , G06N3/096 , G06V10/25 , G06V10/44 , G06V10/52 , G06V10/774 , G06V10/80 , G06V10/82 , G01N21/88
Abstract: 本发明公开了一种基于轻量化神经网络的飞机蒙皮表面缺陷检测方法,包括:构建用于网络训练的数据集;构建用于飞机蒙皮缺陷检测的教师网络模型和轻量化学生网络模型,使用数据集对教师网络模型进行训练,并将训练好的教师网络模型权重文件保存并载入到教师网络模型,使用数据集对学生网络模型进行训练,根据教师网络模型和学生网络模型输出的多尺度特征计算不确定性预测的知识蒸馏损失,结合蒸馏损失和学生网络模型原本的检测损失利用反向传播算法来训练学生网络模型,保存训练好的学生网络模型的权重文件;利用训练好的轻量化学生网络模型实现飞机蒙皮的缺陷检测。在确保精度的前提下,大幅度降低计算复杂度,提高自动化检测技术应用的实时性。
-
公开(公告)号:CN116604571B
公开(公告)日:2023-10-27
申请号:CN202310864607.3
申请日:2023-07-14
Applicant: 湖南大学
Abstract: 本发明公开了一种基于深度强化学习的机器人三维测量路径规划方法,包含基于多层视球和下一最优视点的MLVS‑NBV规划方法生成候选视点集合,使用IKFast运动学求解器求解各视点对应的机器人的所有逆运动学解,建立视点—逆运动学解的评估矩阵,利用PC‑NBV点云网络学习和预测选择下一视点后的覆盖率,建立GTSP问题并利用DDQN深度强化学习方法求解,使用GPMP2运动规划器快速生成测量路径,将训练网络迁移到实际的机器人测量任务。通过视点规划方法保证测量视点的可行性并提高对不同测量对象的测量覆盖率,利用深度强化学习技术实现对不同已知对象的自主测量和对未知对象的探索式测量,规划速度快、适应性强、效率高。
-
公开(公告)号:CN114529703A
公开(公告)日:2022-05-24
申请号:CN202210192372.3
申请日:2022-02-28
Applicant: 湖南大学
IPC: G06T19/20
Abstract: 本发明公开了一种基于熵增优化的大型复杂构件点云全局匹配方法,包括获取相邻视角场景的三维点云坐标,获得源点云X与目标点云Y,对其下采样分别得到采样点云x与采样点云y;基于采样点云x与采样点云y构建物理能量模型;基于熵增定律,根据物理能量模型计算对采样点云x的当前运动的扭矩T和拉力S,根据扭矩T和拉力S计算当前施加的旋转及平移(Rk,tk),获得变换后的点集;计算当前采样点云x在引力场中的势能并记录当前迭代次数;根据势能或迭代次数确定满足预设的结束条件时,累计所有变换后的点集,对源点云X进行旋转平移,实现源点云X与目标点云Y之间的配准。提高了配准精度与鲁棒性,降低方法的失败率。
-
公开(公告)号:CN119850623A
公开(公告)日:2025-04-18
申请号:CN202510330876.0
申请日:2025-03-20
Applicant: 湖南大学
Abstract: 本申请涉及航空检测技术领域,公开一种飞机壁板缺陷检测方法、模型训练方法及相关设备。该训练方法包括:获取拍摄飞机壁板得到的样本图像;将样本图像输入预训练的教师模型和待训练的学生模型,得到第一特征图集、第二特征图集和目标预测结果;依据第一特征图集和第二特征图集两者的特征图的局部偏差和全局偏差,得到知识蒸馏损失信息;依据第一特征图集和第二特征图集两者的特征图,得到对抗损失信息;依据目标预测结果,得到预测损失信息;依据知识蒸馏损失信息、对抗损失信息和预测损失信息,调整学生模型的网络参数。本申请实施例可以在有限的硬件条件下提升飞机壁板缺陷检测的精度。
-
公开(公告)号:CN119795195A
公开(公告)日:2025-04-11
申请号:CN202510286742.3
申请日:2025-03-12
Applicant: 湖南大学
IPC: B25J9/16 , G06V40/20 , G06N20/20 , G06N7/01 , G06F18/2431
Abstract: 本发明公开了一种基于人手轨迹预测的机械臂路径重规划方法,包括:步骤1,采集与机械臂协同工作人员的人手在三维空间中运动轨迹的图像,并根据图像识别出人手的运动位姿;步骤2,根据步骤1得到的人手的运动位姿,基于隐马尔可夫模型对人手的行为和轨迹进行建模,然后通过对于历史数据的学习,对人手的未来行动轨迹进行预测;步骤3,使用改进的快速探索随机树算法,为机械臂生成从当前位置到目标位置,且同时避开步骤2中预测到的人手的未来行动轨迹的机械臂路径。本发明所提出的基于人手预测的机械臂路径重规划方法不仅提高了人机交互的安全性,也显著增强了机器人系统的适应性和响应速度。
-
公开(公告)号:CN119291714B
公开(公告)日:2025-03-21
申请号:CN202411803687.2
申请日:2024-12-10
Applicant: 湖南大学
IPC: G01S17/89 , G06V10/25 , G06N3/084 , G06V10/74 , G06V10/764 , G06V10/766 , G06V10/774 , G06V10/82 , G06V20/64
Abstract: 本发明公开了一种大型装配场景的多传感器在线三维检测方法及装置,通过多个非重复式扫描激光雷达与嵌入式平台相连接,从不同的角度进行扫描,并对不同角度的点云数据进行预处理以实现多传感器非重复式扫描点云数据的坐标系统一与拼接融合,采集整个大型装配场景的点云数据并制作数据集。构建大型装配场景检测模型用于处理大型装配场景下的目标检测任务,通过训练、测试以及离线可视化验证,获得训练好的最佳模型。基于训练好的模型对实时的大型装配场景点云数据进行快速推理,实现大型装配场景中移动机器人等的高精度实时化的在线检测。解放了人力资源,提升了装配效率。
-
公开(公告)号:CN119188783B
公开(公告)日:2025-03-21
申请号:CN202411687643.8
申请日:2024-11-25
Applicant: 湖南大学
Abstract: 一种多末端执行器自主切换的复合移动机器人作业方法与系统,作业方法包括:1、全场景地图建模;2、将涂胶枪换装到机械臂末端,机器人对待装配结构件待涂胶位置进行路径规划并涂胶;3、获取机器人抓取待装配结构件的抓取位姿;4、将机械臂末端切换为二指夹爪,依据抓取位姿将待装配结构件从库内取出;5、获取待装配结构件待装配位置的位姿,确定待装配结构件在待装配蒙皮上的装配位姿,将待装配结构件粘接在待装配蒙皮上;6、获取待装配结构件和待装配蒙皮粘合后螺孔的位姿;将螺丝枪换装到机械臂末端,将待装配结构件固定在待装配蒙皮上。本发明可根据待装配结构件类型,自主确定其在蒙皮上的装配位置,通过单机器人实现了大型部件装配。
-
公开(公告)号:CN119359939A
公开(公告)日:2025-01-24
申请号:CN202411943433.0
申请日:2024-12-27
Applicant: 湖南大学
IPC: G06T17/00 , G06T7/80 , G06T7/13 , G06N3/0464 , G06N3/084
Abstract: 本发明公开了一种多视角特征引导的大范围场景三维建模方法及系统,获取多个视角相机的图像,并输入至多视角立体视觉三维重建神经网络模型中,模型包括多阶段上下文特征提取模块、多视角图像匹配代价构建模块、多视角匹配代价特征聚合网络和视差回归预测模块,通过多视角图像交叉特征迁移互相关匹配代价构建方法构建多视角匹配代价,通过可微分的多视角联合特征引导的各项异性扩散代价聚合方法聚合多视角匹配代价特征,结合损失函数对神经网络模型进行训练,提升多视角三维场景重建性能和深度估计精度。通过训练构建好的多视角立体视觉三维重建神经网络模型,对多视角视频图像进行推理,并实现大范围制造场景动态三维重建。
-
公开(公告)号:CN118848998B
公开(公告)日:2025-01-21
申请号:CN202411347391.4
申请日:2024-09-26
Applicant: 湖南大学
Abstract: 本发明公开了一种基于贝叶斯交互基元的双臂机器人技能学习方法,搭建双臂机器人技能学习平台,以控制双臂机器人和采集数据;通过遥操作对双臂机器人进行示教,采集专家示教数据;建立贝叶斯交互基元学习框架,使用基函数拟合示教轨迹;通过多传感器获取当前状态的多模态数据,采用序列对齐和动态捕捉的方法进行时空推理,得到当前状态的相位,贝叶斯交互基元根据当前相位输出双臂机器人未来动作序列的后验分布;每个时间步都根据当前和历史输出的动作序列的相应动作进行加权平均后执行,直到完成相位估计任务。技能学习效率高、示教方式简单易行、技能学习效果优异,有效解决了双臂机器人技能发育慢、双臂操作协同性差、操作流畅性低的问题。
-
公开(公告)号:CN119169606A
公开(公告)日:2024-12-20
申请号:CN202411241486.8
申请日:2024-09-05
Applicant: 湖南大学
IPC: G06V20/64 , G06V10/80 , G06V10/25 , G06V10/44 , G06N3/0464 , G06N3/0495 , G06N3/08
Abstract: 本发明属于大范围制造场景机器人协同三维感知领域,具体涉及一种基于视觉状态空间模型的多机器人协同三维目标检测方法,包括:搭建多机器人激光雷达三维感知平台,采集飞机制造与装配大范围场景中的三维点云数据;对所采集的三维点云数据进行数据标注,制作三维点云检测数据集,并将三维点云检测数据集进行划分;构建基于视觉状态空间模型的点云三维目标检测模型;将训练集代入到点云三维目标检测模型中进行迭代训练,并采用验证集进行模型验证,得到最优点云三维目标检测模型;将测试集代入到最优点云三维目标检测模型中进行预测,得到三维点云检测结果,实现多机器人在大范围场景中的协同三维目标检测。
-
-
-
-
-
-
-
-
-