一种基于视觉检测的工件自动化抓取方法

    公开(公告)号:CN117733851A

    公开(公告)日:2024-03-22

    申请号:CN202311772219.9

    申请日:2023-12-21

    Abstract: 本发明属于机器人自主抓取技术领域,具体涉及一种基于视觉检测的工件自动化抓取方法,包括采集待抓取工件的不同放置位置的RGB图像和Depth图像,用来作为训练集和验证集;将RGB图像组成的数据集输入到改进的YOLOv7‑Tiny的深度学习网络模型进行目标识别,定位待抓取目标工件;再将标注抓取位置的RGB‑D图像的训练集输入到GR‑ConvNet全卷积神经网络模型进行训练并预测最佳抓取位置,输出目标工件的像素级抓取位置信息;根据像素级抓取信息和手眼标定获得的手眼变换矩阵,获取机械臂末端执行器的抓取位姿配置;依据末端执行器位姿进行逆运动学求解,控制机械臂运动规划至目标工件并进行抓取。本发明可以实现基于视觉检测的工件自动化抓取,提高检测工件的精确度和机械臂抓取成功率。

    基于A-star算法和三次B样条曲线融合的平滑路径改进方法

    公开(公告)号:CN117740020A

    公开(公告)日:2024-03-22

    申请号:CN202311821330.2

    申请日:2023-12-27

    Abstract: 本发明属于移动机器人运动规划算法技术领域,具体涉及一种基于A‑star算法和三次B样条曲线融合的平滑路径改进方法,本发明提出的平滑路径改进方法基于A‑star算法剔除冗余节点和三次B样条曲线融合;首先,遵循三角形斜边最短原则,提出剔除冗余路径节点策略,通过保留A‑star算法中满足避障条件的路径转折节点,剔除冗余路径节点,以缩短路径长度。其次,通过融合准均匀B样条曲线对剔除冗余路径节点的A‑star算法进一步进行路径平滑处理,提高路径的平滑性。该方法不仅解决了路径中的转折节点多的问题,而且缩短路径了长度、平滑了路径。在不同障碍比的实验环境下,通过对A‑star算法改进前后进行多次仿真对比实验,实验结果验证了该方法的有效性和可靠性。

    一种v8发动机演示装置及其演示方法

    公开(公告)号:CN114863784A

    公开(公告)日:2022-08-05

    申请号:CN202210620424.2

    申请日:2022-06-02

    Abstract: 本发明公开了一种v8发动机演示装置及其演示方法,属于教学演示模型技术领域。本发明的v8发动机演示装置,包括V型的缸体壳以及固定连接后纵向分布于缸体壳底部的主轴和曲轴;分列缸体壳两侧的飞轮和传动机构分别套接在所述主轴和曲轴上;所述缸体壳内部为V形分列的两个气缸组,分别为第一气缸组和第二气缸组,将实物的气缸进行模型化处理和排列,演示时有直观的体验感;所述曲轴上还通过多个活塞连杆套接有分列两边并在每一边均呈高低交替状态排布的活塞;所述缸体壳可拆卸罩接在两排活塞上。具体演示时,可直接将缸体壳拆卸后,两排活塞可直接展示出来供学生观察学习。解决了现有技术v8发动机学习时学生无法实际操作,体验感较差的问题。

    一种铸件表面缺陷检测方法、装置、设备及可读存储介质

    公开(公告)号:CN119205661A

    公开(公告)日:2024-12-27

    申请号:CN202411250318.5

    申请日:2024-09-06

    Inventor: 张卉 蒲泉成

    Abstract: 本发明提供了一种铸件表面缺陷检测方法、装置、设备及可读存储介质,涉及铸件表面缺陷检测技术领域,采用锚框对砂型铸件图片进行缺陷标注,由标注后的图片生成图像数据集后划分为训练集和测试集;构建改进后深度学习模型;获取数据集中所标注的全部锚框,对所有锚框的宽高进行聚类得到最优的锚框,以作为改进后深度学习模型的先验框;利用所述训练集和测试集对改进后深度学习模型进行训练和测试,由所述先验框计算边界框回归损失函数后对模型参数进行调整,得到铸件表面缺陷检测网络模型;将待检测的砂型铸件图像输入铸件表面缺陷检测网络模型中,检测出铸件表面缺陷。

    一种适用于生活场景的基于U2-Net的平面抓取位姿检测模型

    公开(公告)号:CN117649441A

    公开(公告)日:2024-03-05

    申请号:CN202311810122.2

    申请日:2023-12-25

    Abstract: 本发明属于深度学习和机器人控制技术领域,具体涉及一种适用于生活场景的基于U2‑Net的平面抓取位姿检测模型。本发明模型通过将U2‑Net和注意力机制相结合对输入图像进行特征提取,之后通过解码预测获得抓取配置所需的宽度热图、角度热图和质量热图,进而在输入图像中获得的相应的抓取配置。该模型不仅可以通过Shuffle Attention注意力机制在不同子特征之间实现信息交流,使模型在该层级保留且聚焦重要的特征信息;还可以通过两级嵌套U型结构从RGB‑D图像中捕获更多的上下文信息,从而避免了多次下采样操作造成的部分特征信息丢失。本发明模型可以被广泛应用于各种非结构化的日常生活场景中的抓取检测任务,且该模型具备更强的鲁棒性和泛化性能。

    一种基于改进DETR铸件表面缺陷检测方法及系统

    公开(公告)号:CN117314837A

    公开(公告)日:2023-12-29

    申请号:CN202311143094.3

    申请日:2023-09-05

    Abstract: 本发明公开了一种基于改进DETR铸件表面缺陷检测方法及系统,属于铸件缺陷检测领域,包括:获取砂型铸件表面缺陷图像数据集;对图像数据集进行标注,标注出图像中的缺陷目标,缺陷目标包含位置和类别信息;将标注后的图像数据集划分为训练集和验证集;构建基于改进DETR的Casting‑DETR网络模型;使用训练集对Casting‑DETR网络模型进行微调;将验证集输入微调后的Casting‑DETR网络模型,输出铸件表面缺陷的位置、类别和置信度;利用验证后的Casting‑DETR网络模型对砂型铸件表面缺陷进行检测。针对现有技术中存在的铸件表面缺陷检测精度低的问题,本发明通过对DETR网络进行模块化改造,提高了铸件表面缺陷的检测精度。

    一种基于Transformer的抓取位姿检测方法

    公开(公告)号:CN116894988A

    公开(公告)日:2023-10-17

    申请号:CN202311078801.5

    申请日:2023-08-24

    Abstract: 本发明公开了一种基于Transformer的抓取位姿检测方法,属于机器人识别技术领域,包括:将获取的输入图像送入编码器进行特征提取,输出特征图,编码器包含多个Swin转换模块;第一解码器对特征图进行上采样和特征融合;第二解码器对特征图进行解码,输出抓取质量分数图、宽度图和角度图;构建基于Transformer的抓取位姿检测模型;构建损失函数,将抓取姿态预测作为回归问题,通过最小化预测抓取图和真实抓取图之间的距离,训练和优化抓取位姿检测模型,直到抓取位姿检测模型训练收敛,最终获得基于Transformer的抓取位姿检测模型;利用获得的基于Transformer的抓取位姿检测模型进行抓取位姿检测。针对现有的抓取精度低的问题,本发明通过Transformer和卷积神经网络的组合,提高抓取检测的精度。

Patent Agency Ranking