-
公开(公告)号:CN116787432A
公开(公告)日:2023-09-22
申请号:CN202310704172.6
申请日:2023-06-14
申请人: 安徽工程大学 , 华能巢湖发电有限责任公司
IPC分类号: B25J9/16
摘要: 本发明涉及一种机器人视觉引导抓取方法,输入待抓取工件图样,通过虚拟引擎生成工件的虚拟图片;将视觉系统采集的图像裁剪拼接,并配合随机算法,生成工件在不同位置下的均匀分布图像;利用cycleGAN网络对图像进行优化,并引入梯度损失函数和多通道混合注意力机制以提升提高检测模型的图像的清晰度及提高学习效率与生成效果;利用yolov7算法预测工件表面关键点检测,通过提出的GeIOU函数作为损失函数提高预测准确度;利用EPnP算法将工件表面关键点转换为位资关键点,同时通过6DOF位姿计算完成抓取位置计算。本发明通过梯度损失函数和多通道混合注意力机制提高网络的学习效率与生成效果,同时在保证生成图像清晰度的前提下,消除拼接图像中工件与背景的灰度差。
-
公开(公告)号:CN116935334A
公开(公告)日:2023-10-24
申请号:CN202310709440.3
申请日:2023-06-14
申请人: 安徽工程大学
IPC分类号: G06V20/54 , B64U20/87 , B64U20/80 , H04N7/18 , G06V40/10 , G06V10/82 , G06V10/80 , G06N3/0464 , B64U101/31
摘要: 本发明公开一种基于无人机航拍的电动车骑手头盔佩戴监测系统,其所述系统包括:设于无人机上的云台,云台上集成有摄像机,无人机在指定道路的上空进行低速航拍,将拍摄到的道路图像传输至处理单元;处理单元检测道路图像中是否存在未带头盔的电动车骑手,若存在,则无人机发出佩戴头盔提醒。本发明通过对YOLOv7网络结构进行改进,提升电动车头盔的检测精度,用于改善电动车骑手不佩戴头盔的现象。
-
公开(公告)号:CN118037831A
公开(公告)日:2024-05-14
申请号:CN202311821659.9
申请日:2023-12-27
申请人: 安徽工程大学
IPC分类号: G06T7/73 , G06T7/80 , G06N3/0464 , G06N3/0455 , G06N3/0475 , G06N3/094
摘要: 本发明涉及反光金属对象的机器人2D视觉6DOF位姿测量与定位抓取方法,利用6DOF系统中单目摄像头采集的反光金属对象图形通过虚拟引擎建立虚拟图形数据集;使用Unet作为生成对抗网络的生成器,并利用Transformer模块与cycleGAN网络结合以提高图像的特征的质量;使用KLD损失函数与YOLOv7网络结合对YOLOv7网络输出的坐标和角度进行优化,减小角度误差;通过固定放置的标定板进行拍照计算出标定板相对机器人底坐的位姿,通过转置矩阵计算出标定平面在单目摄像头坐标系下的位姿,并配合单目摄像头内参实现2D位姿向3D位姿的转化。本发明对YOLOv7目标检测网络进行改进,实现了YOLOv7目标检测网络对旋转对像的定位,实现了机器人抓取2D抓取位姿的高精度计算。
-
公开(公告)号:CN117078525A
公开(公告)日:2023-11-17
申请号:CN202310830116.7
申请日:2023-07-07
申请人: 安徽工程大学
摘要: 本发明揭示了一种基于虚拟场景的工件小样本图像增强方法,该方法先建立工件模型,利用随机算法设置不同的场景、不同的光照条件和不同的工件位姿,从而模拟不同条件下相机采集数据集的情况,制作虚拟图片,达到扩充数据集的目的。本发明实现了对工件小样本数据集进行有效的扩充,克服了工件在采集数据集的过程中伴随的相机抖动、光照不均、环境复杂和采集成本高的问题,同时也突破了传统图像增强方法只能在原始图像基础上进行增强的局限性。该方法可以覆盖复杂的光照模型、不同的工件材质和复杂的场景条件,对环境变化的适应性强。
-
公开(公告)号:CN115761656A
公开(公告)日:2023-03-07
申请号:CN202211467442.8
申请日:2022-11-22
申请人: 安徽工程大学
摘要: 本发明公开一种基于无人机航拍的高速道路交通监测系统,包括:设于云台上的摄像机,云台位于无人机上,无人机在指定高速车道的上空低速飞行,无人机与该高速车道上的车辆相向行驶;摄像机,基于无人机拍摄指定高速车道的路面图像,并发送至图像识别单元;图像识别单元识别出路面图像中的车辆;路面监测单元基于相邻帧中车辆的位置来判定指定高速车道是否发生交通堵塞。本发明通过对YOLOv5网络结构进行改进,提高路面图像中的车辆目标识别精度,提高高速路面的交通状况的识别精度。
-
公开(公告)号:CN115049726A
公开(公告)日:2022-09-13
申请号:CN202210651039.4
申请日:2022-06-09
申请人: 安徽工程大学
IPC分类号: G06T7/70 , G06V10/22 , G06V10/75 , G06V10/764 , H05K3/34
摘要: 本发明公开的一种基于视觉定位的PCB焊接方法,包括:采集当前待识别PCB芯片的图像,将采集图像与各粗定位模板进行匹配,匹配出采集图像中待识别PCB芯片中心的图像坐标;基于采集图像中待识别PCB芯片中心构建样本图像,将样本图像输入识别网络,识别采集图像中待识别PCB芯片的类别;基于待识别PCB芯片中心的图像坐标确定采集图像中的定精定位区域,基于精定位区域与精定位模板间的匹配确定精定位模板的焊接点在当前采集图像中的图像坐标;将焊接点在采集图像中的图像坐标转换至机器人坐标系,控制机器人末端的焊锡枪移动至焊接点位置进行焊接操作。实现工业机器人对PCB芯片的自主识别与自动化焊接,可应用于多种类PCB芯片产品的混线生产。
-
-
-
-
-