一种基于机器视觉的采摘点检测模型构建方法及采摘点定位方法

    公开(公告)号:CN114119574A

    公开(公告)日:2022-03-01

    申请号:CN202111443534.8

    申请日:2021-11-30

    Abstract: 本发明公开了一种基于机器视觉的采摘点检测模型构建方法及采摘点定位方法,属于人工智能检测技术领域。采集采摘目标多角度RGB图像和深度图像通过视角映射生成采摘目标的第一点云集合作为训练集;采用三维重建方法实时重建采摘本体树冠层第二点云集合作为验证集和测试集,训练采摘点检测模型Alpha‑VoteNet。采摘时,采用三维重建方法实时三维重建采摘对象树冠层第三点云集合,利用采摘点检测模型获取采摘对象树冠层的所有采摘目标的采摘区域标注框,并根据标注框底面顶点计算底面中心获取采摘点三维坐标。本方法克服了传统方法中无法获取采摘目标的三维信息和因障碍物遮挡造成识别精度不高的问题,具有检测精度高、识别速度快和泛化能力强等特点。

    一种基于机器视觉的果实检测及产量估计方法及系统

    公开(公告)号:CN114663814B

    公开(公告)日:2024-08-23

    申请号:CN202210308755.2

    申请日:2022-03-28

    Abstract: 本发明公开一种基于机器视觉的果实检测及产量估计方法及系统,涉及人工智能目标识别及应用技术领域。针对现有技术中果实产量估计不够准确的问题,本发明采集三个视角的果实视频流数据集;设计基于Transformer编码器与注意力特征融合机制的CSP模块,集成入YOLOv5中构建基于多级特征融合颈部的目标检测模型YOLOv5‑FF;采用Focal EIoU Loss作为边框损失函数训练以得到果实目标检测模型,将YOLOv5‑FF模型对果实视频流连续帧图像的检测结果输入目标跟踪模型Deep Sort,通过级联匹配与IoU匹配机制为匹配成功的果实分配专属编号,得到多视角下的果实数量,提高果实检测效率,部署方便、检测高效精准的特点;提出的产量估计模型能够实现果园产量的高精度测算。

    一种基于多模态数据融合的目标检测方法以及基于目标检测模型的在体果实采摘方法

    公开(公告)号:CN115376125A

    公开(公告)日:2022-11-22

    申请号:CN202211173171.5

    申请日:2022-09-26

    Abstract: 本发明公开了一种基于多模态数据融合的目标检测方法以及基于目标检测模型的在体果实采摘方法,属于智能检测技术领域。一方面目标检测模型的训练方法中,利用深度相机获取自然环境下在体果实的多模态视觉数据,引入坐标注意力机制增强特征提取网络对目标物的感知能力,结合深度可分离卷积模块减少模型参数量和推理时间;另一方面将目标检测模型应用到机械臂对果实的识别中,提出基于果实位置信息和遮挡状态分类的视觉伺服检测机制,该机制利用机械臂在果实采摘过程中具有运动特性的优势,通过机械臂运动带动相机视角变化,不断更新相机视野内所检测到的果实目标,实现对果实的动态检测,克服因光照和果实遮挡造成的漏检,提高果实的检出率。

    一种基于机器视觉的果实检测及产量估计方法及系统

    公开(公告)号:CN114663814A

    公开(公告)日:2022-06-24

    申请号:CN202210308755.2

    申请日:2022-03-28

    Abstract: 本发明公开一种基于机器视觉的果实检测及产量估计方法及系统,涉及人工智能目标识别及应用技术领域。针对现有技术中果实产量估计不够准确的问题,本发明采集三个视角的果实视频流数据集;设计基于Transformer编码器与注意力特征融合机制的CSP模块,集成入YOLOv5中构建基于多级特征融合颈部的目标检测模型YOLOv5‑FF;采用Focal EIoU Loss作为边框损失函数训练以得到果实目标检测模型,将YOLOv5‑FF模型对果实视频流连续帧图像的检测结果输入目标跟踪模型Deep Sort,通过级联匹配与IoU匹配机制为匹配成功的果实分配专属编号,得到多视角下的果实数量,提高果实检测效率,部署方便、检测高效精准的特点;提出的产量估计模型能够实现果园产量的高精度测算。

    一种基于机器视觉的采摘点检测模型构建方法及采摘点定位方法

    公开(公告)号:CN114119574B

    公开(公告)日:2024-08-13

    申请号:CN202111443534.8

    申请日:2021-11-30

    Abstract: 本发明公开了一种基于机器视觉的采摘点检测模型构建方法及采摘点定位方法,属于人工智能检测技术领域。采集采摘目标多角度RGB图像和深度图像通过视角映射生成采摘目标的第一点云集合作为训练集;采用三维重建方法实时重建采摘本体树冠层第二点云集合作为验证集和测试集,训练采摘点检测模型Alpha‑VoteNet。采摘时,采用三维重建方法实时三维重建采摘对象树冠层第三点云集合,利用采摘点检测模型获取采摘对象树冠层的所有采摘目标的采摘区域标注框,并根据标注框底面顶点计算底面中心获取采摘点三维坐标。本方法克服了传统方法中无法获取采摘目标的三维信息和因障碍物遮挡造成识别精度不高的问题,具有检测精度高、识别速度快和泛化能力强等特点。

Patent Agency Ranking