-
公开(公告)号:CN118913277A
公开(公告)日:2024-11-08
申请号:CN202410957784.0
申请日:2024-07-17
Applicant: 湖南大学
IPC: G01C21/20 , G01S17/89 , G01S17/933
Abstract: 本发明公开了一种基于A*与速度避障法的无人机集群路径规划方法,首先搭建集群无人机规划仿真平台;获取激光雷达的数据,通过激光雷达建图算法获得用于规划使用的占用栅格地图;获取仿真中无人机的位置和速度信息,以及实时更新的占用栅格地图信息后,采用hybrid A*算法进行无人机的全局规划;每一个无人机接收来自其余所有无人机全局规划节点的路径信息,采用orca局部规划算法来完成当前无人机局部范围内的路径规划,将下一个全局路径点当做目标点,实现无人机的交互以及对飞,完成无人机集群飞行以及避撞。采用全局路径规划算法避免无人机长时间陷入局部最优,加入局部路径规划算法完成无人机间的交互问题,避免无人机间的碰撞。
-
公开(公告)号:CN118887206A
公开(公告)日:2024-11-01
申请号:CN202411346269.5
申请日:2024-09-26
Applicant: 湖南大学
IPC: G06T7/00 , G06N3/042 , G06N3/045 , G06N3/0464 , G06N3/0495 , G06N3/084 , G06N3/0895 , G06N3/096 , G06V10/74 , G06V10/764 , G06V10/80 , G01N33/00
Abstract: 本发明公开了一种基于对比知识蒸馏的轻量化缺陷检测方法,对缺陷检测数据进行收集和预处理,搭建用于缺陷检测的教师网络模型和轻量化学生网络模型,基于预处理后的数据集对教师网络模型进行训练;将预处理后的数据集中的缺陷图片输入至训练好的教师网络模型和轻量化学生网络模型中得到教师多尺度知识和学生多尺度知识,通过对比学习损失来最小化教师和学生网络模型多尺度知识之间的差异,结合对比学习损失和检测损失组成的总损失利用反向传播算法来对学生网络模型的参数进行更新;将训练好的轻量化学生网络模型部署和应用到自主移动机器人上,实现智能制造产品的动态、实时缺陷检测。推动高效、准确和可持续的智能制造生产。
-
公开(公告)号:CN118544364B
公开(公告)日:2024-10-18
申请号:CN202411009417.4
申请日:2024-07-26
Applicant: 湖南大学
IPC: B25J9/16
Abstract: 本发明公开了动态场景下基于间隙推理神经网络的机械臂碰撞估计方法,首先将机械臂的任务空间离散化为若干个子空间单元,采集不同关节角配置下机械臂与子空间单元的最短距离数据集;搭建间隙推理神经网络模型,用采集到的数据集和预设的损失函数进行训练,学习机械臂关节角配置与间隙距离的映射关系;获取障碍物环境信息建立环境信息矩阵,使用训练好的间隙推理神经网络模型对多组关节角进行间隙距离预测得到间隙距值矩阵,基于安全距离阈值对间隙距值矩阵进行预处理得到子空间碰撞推理矩阵,根据子空间碰撞推理矩阵和环境信息矩阵完成碰撞检测估计。可批量处理碰撞检测,加速关节空间采样点碰撞检测过程,从而实现动态环境下机械臂实时路径规划。
-
公开(公告)号:CN118550312B
公开(公告)日:2024-10-11
申请号:CN202411008641.1
申请日:2024-07-26
Applicant: 湖南大学
Abstract: 本发明公开了一种用于空中机器人自主作业的视觉阻抗控制方法及系统,该方法基于虚拟图像平面将相机获取的原始图像转换成在虚拟图像平面下的视觉特征后,得到空中机器人视觉伺服控制率;将视觉伺服控制率代入空中机器人的动力学模型构建空中机器人基于视觉的图像动力学方程;利用视觉‑阻抗控制器获得根据当前接触力与期望接触力的接触力误差获取对应的视觉特征误差值,再结合基于视觉伺服的模型预测控制MPCVS获得广义力;最后,基于改进的几何姿态控制器,并联合基于视觉的图像动力学方程,得到广义力矩;采用视觉感知与阻抗控制相结合的方式,通过实时预测和调整空中机器人与环境间的相互作用力,有效适应并精确控制复杂作业环境。
-
公开(公告)号:CN118548898B
公开(公告)日:2024-10-11
申请号:CN202411009065.2
申请日:2024-07-26
Applicant: 湖南大学
IPC: G01C21/20 , G06F16/29 , G06F16/901
Abstract: 本发明公开了一种基于安全通道采样的多机器人动态运动规划方法,构建初始静态地图,预设多个机器人在初始静态地图上各自对应的初始点和目标点,构建GVG路线图并规划出多个机器人各自的初始最短GVG路径并建立安全通道,在多个机器人的安全通道内随机采样得到采样点,规划出在静态地图上多个机器人各自从初始点沿着采样点到达目标点的运动路径,在动态地图上执行多个机器人各自在静态地图上得到的运动路径并进行动态障碍物检测和运动路径的更新,直至每个机器人到达各自对应的目标点,由此得到多个机器人各自在动态地图中的运动路径。该方法可在实时动态高、工作空间受限情况下完成多机器人的路径规划,提高机器人运行效率和安全性。
-
公开(公告)号:CN118550312A
公开(公告)日:2024-08-27
申请号:CN202411008641.1
申请日:2024-07-26
Applicant: 湖南大学
Abstract: 本发明公开了一种用于空中机器人自主作业的视觉阻抗控制方法及系统,该方法基于虚拟图像平面将相机获取的原始图像转换成在虚拟图像平面下的视觉特征后,得到空中机器人视觉伺服控制率;将视觉伺服控制率代入空中机器人的动力学模型构建空中机器人基于视觉的图像动力学方程;利用视觉‑阻抗控制器获得根据当前接触力与期望接触力的接触力误差获取对应的视觉特征误差值,再结合基于视觉伺服的模型预测控制MPCVS获得广义力;最后,基于改进的几何姿态控制器,并联合基于视觉的图像动力学方程,得到广义力矩;采用视觉感知与阻抗控制相结合的方式,通过实时预测和调整空中机器人与环境间的相互作用力,有效适应并精确控制复杂作业环境。
-
公开(公告)号:CN118548898A
公开(公告)日:2024-08-27
申请号:CN202411009065.2
申请日:2024-07-26
Applicant: 湖南大学
IPC: G01C21/20 , G06F16/29 , G06F16/901
Abstract: 本发明公开了一种基于安全通道采样的多机器人动态运动规划方法,构建初始静态地图,预设多个机器人在初始静态地图上各自对应的初始点和目标点,构建GVG路线图并规划出多个机器人各自的初始最短GVG路径并建立安全通道,在多个机器人的安全通道内随机采样得到采样点,规划出在静态地图上多个机器人各自从初始点沿着采样点到达目标点的运动路径,在动态地图上执行多个机器人各自在静态地图上得到的运动路径并进行动态障碍物检测和运动路径的更新,直至每个机器人到达各自对应的目标点,由此得到多个机器人各自在动态地图中的运动路径。该方法可在实时动态高、工作空间受限情况下完成多机器人的路径规划,提高机器人运行效率和安全性。
-
公开(公告)号:CN118154607B
公开(公告)日:2024-08-09
申请号:CN202410579980.9
申请日:2024-05-11
Applicant: 湖南大学
IPC: G06T7/00 , G06N3/0464 , G06N3/084
Abstract: 本发明公开了一种基于混合多尺度知识蒸馏的轻量化缺陷检测方法,构建数据集;构建教师网络模型和轻量化学生网络模型;使用数据集对教师网络模型进行训练,并将训练好的教师网络模型权重文件保存;载入保存的教师网络模型权重文件到教师网络模型,将数据集中的缺陷图像输入至教师网络模型和学生网络模型中分别得到第一多尺度特征和第二多尺度特征,再分别输入至级联式知识混合模块得到最终的深度融合的第一多尺度特征和第二多尺度特征,进而计算混合多尺度知识损失,结合学生网络模型的预测损失利用反向传播算法来网络参数进行更新,得到训练好的轻量化学生网络模型完成智能制造产品的缺陷检测。提升对不同尺度缺陷的认知能力和识别性能。
-
公开(公告)号:CN114898069B
公开(公告)日:2024-08-09
申请号:CN202210560489.2
申请日:2022-05-24
Applicant: 湖南大学
IPC: G06T17/20 , G06F30/10 , G06F111/20
Abstract: 本发明公开了一种曲面蒙皮三维数据拼合方法,包括如下步骤:1、构建工件三维实际测量三维数据和该工件设计模型的三维数据;2、计算设计模型三维数据中每个点的法矢、邻域半径以及球心位置;3、寻找三维实际测量三维数据中所有点到设计模型三维数据中的最近点;4、计算三维实际测量三维数据中所有点到设计模型三维数据中最近点的静态最近距离、动态最近距离;5、构建曲面适应性距离的目标函数;6、最小化目标函数,计算微分运动旋量;7、更新三维实际测量三维数据,实现数据拼合。本发明通过考虑曲面邻域特征变化对距离计算精度的影响,定义了曲面适应性的精度距离度量和拼合方法,平坦、强扭曲的复杂曲面,均能获得精确的拼合结果。
-
公开(公告)号:CN118172632A
公开(公告)日:2024-06-11
申请号:CN202410292746.8
申请日:2024-03-14
Applicant: 湖南大学
IPC: G06V10/80 , G06V10/82 , G06V10/774 , G06V20/17
Abstract: 本申请涉及一种基于多模态融合的无人系统三维目标检测方法及装置,所述方法包括以下步骤:获取待检测的道路场景的二维图像和三维点云数据,并输入多模态融合检测模型;多模态融合检测模型包括时序动态卷积融合模块,其利用三维位置嵌入编码器,根据前一帧的三维世界空间坐标与前一帧的二维图像特征生成前一帧的三维位置感知特征,前一帧的三维位置感知特征经位姿变换后作为当前帧的补充位置感知特征;根据当前帧的补充位置感知特征与当前帧的三维点云特征生成第一融合帧三维点云特征;基于第一融合帧三维点云特征和当前帧的二维图像特征得到初步融合特征,基于初步融合特征输出检测结果。该方法可解决远处目标识别困难的问题。
-
-
-
-
-
-
-
-
-