-
公开(公告)号:CN117474914B
公开(公告)日:2024-04-12
申请号:CN202311812865.3
申请日:2023-12-27
Applicant: 湖南大学
IPC: G06T7/00 , G06N3/045 , G06N3/0464 , G06N3/096 , G06V10/25 , G06V10/44 , G06V10/52 , G06V10/774 , G06V10/80 , G06V10/82 , G01N21/88
Abstract: 本发明公开了一种基于轻量化神经网络的飞机蒙皮表面缺陷检测方法,包括:构建用于网络训练的数据集;构建用于飞机蒙皮缺陷检测的教师网络模型和轻量化学生网络模型,使用数据集对教师网络模型进行训练,并将训练好的教师网络模型权重文件保存并载入到教师网络模型,使用数据集对学生网络模型进行训练,根据教师网络模型和学生网络模型输出的多尺度特征计算不确定性预测的知识蒸馏损失,结合蒸馏损失和学生网络模型原本的检测损失利用反向传播算法来训练学生网络模型,保存训练好的学生网络模型的权重文件;利用训练好的轻量化学生网络模型实现飞机蒙皮的缺陷检测。在确保精度的前提下,大幅度降低计算复杂度,提高自动化检测技术应用的实时性。
-
公开(公告)号:CN117400269B
公开(公告)日:2024-04-12
申请号:CN202311716182.8
申请日:2023-12-14
Applicant: 湖南大学
IPC: B25J9/16
Abstract: 本发明公开了一种基于双向采样和虚拟势场引导的机械臂路径规划方法,定义栅格地图并确定机械臂末端的初始点和目标点在栅格地图中的初始点和目标点,将栅格地图中的初始点和目标点分别设置为初始随机树和目标随机树的根节点,对两颗随机树采用双向随机树导向策略进行采样并交替进行扩展,并对扩展后产生的节点执行碰撞检测并处理,得到两颗随机树在每次扩展后各自对应的节点,根据预设的终止检测阈值以及扩展次数判断是否满足随机树扩展的终止条件,若满足终止条件,则输出栅格地图中从初始点到目标点的初始路径并优化,得到规划出的机械臂路径。该方法可有效解决现有机械臂路径规划过程中冗余采样点过多、避障随机性高、规划时间较长等技术问题。
-
公开(公告)号:CN117454672A
公开(公告)日:2024-01-26
申请号:CN202311776355.5
申请日:2023-12-22
IPC: G06F30/20 , G06T7/30 , G06T17/20 , G06F30/17 , G06F111/04
Abstract: 本发明公开了一种基于曲面装配约束的机器人作业余量计算方法,获得机身点云X与蒙皮点云Y;基于装配飞机机身点云X提取待装配边界序列点云E;将待装配边界序列点云E与待装配蒙皮点云Y进行最小余量匹配,搜索最近邻匹配对,建立最小余量方差约束的优化误差方程;根据机身点云X建立蒙皮微形变方程,在局部形变上限约束下,联合优化可微点云匹配方程;利用可微匹配方程的梯度方程和海瑟矩阵计算下一步优化方向的旋转矩阵及平移向量;计算优化后的误差,若小于预设误差阈值或者迭代次数大于预设迭代次数总数则输出结果,得到当前匹配后的边界,供给铣削作业机器人去除加工余量,得到最终装配曲面。改善了装配工序,计算高效,具有极高的可用性。
-
公开(公告)号:CN116912312B
公开(公告)日:2023-12-01
申请号:CN202311190948.3
申请日:2023-09-15
Applicant: 湖南大学
IPC: G06T7/70 , G06T7/187 , G06V10/44 , G06V10/762
Abstract: 本发明公开了一种面向复杂曲面构件的三维孔类定位方法,包括:获取点云数据,通过基于邻域夹角比较的方法识别点云数据中的轮廓,得到点云边界轮廓;对点云边界轮廓进行八叉树处理和搜索实现连通域划分,得到全部边界点云的聚类结果;聚类结果为多个圆孔轮廓;判断每个圆孔轮廓是否满足预设条件,若当前圆孔轮廓满足预设条件,则选择基于超定方程求解的方法拟合当前圆孔轮廓的三维圆孔,若当前圆孔轮廓不满足预设条件,则选择基于RANSAC法拟合当前圆孔轮廓的三维圆孔,得到参数定位信息,完成所
-
公开(公告)号:CN116604571A
公开(公告)日:2023-08-18
申请号:CN202310864607.3
申请日:2023-07-14
Applicant: 湖南大学
Abstract: 本发明公开了一种基于深度强化学习的机器人三维测量路径规划方法,包含基于多层视球和下一最优视点的MLVS‑NBV规划方法生成候选视点集合,使用IKFast运动学求解器求解各视点对应的机器人的所有逆运动学解,建立视点—逆运动学解的评估矩阵,利用PC‑NBV点云网络学习和预测选择下一视点后的覆盖率,建立GTSP问题并利用DDQN深度强化学习方法求解,使用GPMP2运动规划器快速生成测量路径,将训练网络迁移到实际的机器人测量任务。通过视点规划方法保证测量视点的可行性并提高对不同测量对象的测量覆盖率,利用深度强化学习技术实现对不同已知对象的自主测量和对未知对象的探索式测量,规划速度快、适应性强、效率高。
-
公开(公告)号:CN114898069A
公开(公告)日:2022-08-12
申请号:CN202210560489.2
申请日:2022-05-24
Applicant: 湖南大学
IPC: G06T17/20 , G06F30/10 , G06F111/20
Abstract: 本发明公开了一种曲面蒙皮三维数据拼合方法,包括如下步骤:1、构建工件三维实际测量三维数据和该工件设计模型的三维数据;2、计算设计模型三维数据中每个点的法矢、邻域半径以及球心位置;3、寻找三维实际测量三维数据中所有点到设计模型三维数据中的最近点;4、计算三维实际测量三维数据中所有点到设计模型三维数据中最近点的静态最近距离、动态最近距离;5、构建曲面适应性距离的目标函数;6、最小化目标函数,计算微分运动旋量;7、更新三维实际测量三维数据,实现数据拼合。本发明通过考虑曲面邻域特征变化对距离计算精度的影响,定义了曲面适应性的精度距离度量和拼合方法,平坦、强扭曲的复杂曲面,均能获得精确的拼合结果。
-
公开(公告)号:CN119169606B
公开(公告)日:2025-04-25
申请号:CN202411241486.8
申请日:2024-09-05
Applicant: 湖南大学
IPC: G06V20/64 , G06V10/80 , G06V10/25 , G06V10/44 , G06N3/0464 , G06N3/0495 , G06N3/08
Abstract: 本发明属于大范围制造场景机器人协同三维感知领域,具体涉及一种基于视觉状态空间模型的多机器人协同三维目标检测方法,包括:搭建多机器人激光雷达三维感知平台,采集飞机制造与装配大范围场景中的三维点云数据;对所采集的三维点云数据进行数据标注,制作三维点云检测数据集,并将三维点云检测数据集进行划分;构建基于视觉状态空间模型的点云三维目标检测模型;将训练集代入到点云三维目标检测模型中进行迭代训练,并采用验证集进行模型验证,得到最优点云三维目标检测模型;将测试集代入到最优点云三维目标检测模型中进行预测,得到三维点云检测结果,实现多机器人在大范围场景中的协同三维目标检测。
-
公开(公告)号:CN119810606A
公开(公告)日:2025-04-11
申请号:CN202510280466.X
申请日:2025-03-11
Applicant: 湖南大学
IPC: G06V10/80 , G06N3/0455 , G06N3/0464 , G06V10/25 , G06V10/44 , G06V10/774 , G06V10/82
Abstract: 本发明公开了一种基于跨模态交互感知的多模态图像融合方法及系统,构建多模态图像融合模型并训练,将待融合的多模态图像输入训练后的多模态图像融合模型处理,编码器模块接收待融合的多模态图像并进行逐层编码处理,输出若干层不同尺度的特征图,通道级校正模块接收若干层不同尺度的特征图并进行加权校正,输出若干层权校正后的模态特征,动态跨模态交互模块接收若干层加权校正后的模态特征并处理,得到若干层融合特征,解码器模块接收若干层融合特征并进行逐层解码与融合处理,输出待融合的多模态图像对应的融合图像。该方法通过通道级校正模块和动态跨模态交互模块,能够有效地将多模态数据之间的相关信息进行交互。
-
公开(公告)号:CN119784798A
公开(公告)日:2025-04-08
申请号:CN202510266039.6
申请日:2025-03-07
Applicant: 湖南大学
IPC: G06T7/246 , G06N3/0455 , G06N3/0464 , G06V10/44 , G06V10/75 , G06V10/80 , G06V10/82
Abstract: 本发明公开了一种基于时空间特征融合的视频目标跟踪方法、系统及设备,获取待检测目标的视频数据,搭建目标跟踪模型,包括依次连接的编码器模块、位置编码模块、时空特征融合模块和解码器模块;接着对目标跟踪模型进行训练,得到训练后的目标跟踪模型;最后将待检测目标的视频数据输入训练后的目标跟踪模型,得到待检测目标的识别位置结果。改进了Transformer长时序记忆能力不足和注意力机制运算量大的缺点,利用时空特征融合模块,对多帧图像进行时间和空间上的融合感知,有效提升了模型的时序感知能力,增强在复杂环境中跟踪快速移动或严重变形的目标的能力,并且降低了内存消耗和计算复杂度,能够高效高精度地实现视频目标跟踪。
-
公开(公告)号:CN119359940B
公开(公告)日:2025-03-21
申请号:CN202411943944.2
申请日:2024-12-27
Applicant: 湖南大学
IPC: G06T17/00 , G06V10/24 , G06V10/44 , G06V10/74 , G06V10/774 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/084
Abstract: 本发明涉及机器人视觉感知技术领域,具体为一种基于交叉通道注意力机制特征融合的三维场景重建方法,包括:S1、收集多张畸变校正与立体校正后待立体视觉三维重建的双目立体视觉图像,并构建训练集;S2、构建三维场景重建网络;S3、选取一张双目立体视觉图像输入到三维场景重建网络中,得到每个不同阶段的预测视差;S4、构建损失函数,计算每个不同阶段的预测视差与真实视差之间的损失,并循环S3至S4,直至损失函数收敛;然后对三维场景重建网络的权重进行更新;S5、对训练后的三维场景重建网络进行测试,得到双目立体视觉三维重建场景的三维深度信息。本发明大幅度提高了上下文特征融合效率,提升了双目立体视觉视差估计性能。
-
-
-
-
-
-
-
-
-