-
公开(公告)号:CN115330884A
公开(公告)日:2022-11-11
申请号:CN202210965004.8
申请日:2022-08-12
Applicant: 安徽农业大学
Abstract: 本发明公开了一种用于圆条纹阵列标靶的特征点排序方法,包括:步骤S1:摄像机依次采集多幅圆条纹阵列图像;步骤S2:提取圆条纹阵列图像的掩膜图像,通过连通域标记获得每个圆条纹的感兴趣区域;步骤S3:对比多幅圆条纹阵列图像,获得二值图像,并进行形态学孔洞填充获得填充图像;步骤S4:统计每个圆条纹的感兴趣区域中每幅填充图像的面积占比,推算出每个圆条纹的编码值;步骤S5:确定每个圆条纹的相移量和圆心特征点的次序;计算圆条纹阵列图像的相位分布,并提取圆心特征点;步骤S6:建立圆心特征点的世界坐标和图像坐标的一一映射关系,用于后续的摄像机标定;通过编码不同相移量的圆条纹,确定圆心特征点的次序,鲁棒性和适用性较强。
-
公开(公告)号:CN115063341B
公开(公告)日:2024-04-26
申请号:CN202210351062.1
申请日:2022-04-02
Applicant: 安徽农业大学
Abstract: 本发明公开了一种基于相移条纹的苹果果梗和花萼检测方法,通过搭建条纹投影系统;采用相移法计算相移条纹图像的截断相位,结合连通域标记算法、二维凸包算法和逻辑运算获得果梗花萼区域的掩膜图像;根据果梗花萼的凹形特征,无需重建苹果三维面形,通过分析处理相移条纹的截断相位,有效地检测出果梗花萼区域,具有非接触、成本低、精度高、速度快、鲁棒性强的优点。
-
公开(公告)号:CN114812418B
公开(公告)日:2023-10-27
申请号:CN202210441110.6
申请日:2022-04-25
Applicant: 安徽农业大学 , 合肥综合性国家科学中心人工智能研究院(安徽省人工智能实验室)
Abstract: 本发明公开了一种便携式植株密度和株距测量系统,包括用于采集并分析植株图像和显示测量结果的手持式终端设备和用于标定区域面积和校正拍摄视角的伸缩式标定组件,成本低、结构紧凑、便于携带;通过提取伸缩式标定组件中标志球的球心,利用透视变换可自动校正拍摄视角,植株图像拍摄灵活性强、自动化程度高;利用深度学习网络训练植株模型,识别并定位单个植株,进而计算出植株密度和株距,自动化程度高。
-
公开(公告)号:CN115235374A
公开(公告)日:2022-10-25
申请号:CN202210818527.X
申请日:2022-07-12
Applicant: 安徽农业大学
Abstract: 本发明公开了一种基于参考相位估计的相位展开方法,包括:步骤S1:搭建条纹投影系统,采集被物体调制的条纹图像,并利用相移法从条纹图像中提取截断相位φ(x,y);步骤S2:计算截断相位φ(x,y)的梯度图gX(x,y)和gY(x,y),估计出绝对相位Φ(x,y)的梯度图GX(x,y)和GY(x,y);步骤S3:计算梯度图GX(x,y)和GY(x,y)的平均值,生成一组参考相位Φr(x,y,m),并计算条纹级次k(x,y,m),通过相位展开获得一组绝对相位Φ(x,y,m);步骤S4:计算绝对相位Φ(x,y,m)的梯度图GX(x,y,m)和GY(x,y,m),然后计算绝对相位Φ(x,y,m)的边缘图,记录边缘点数目最少的绝对相位Φ(x,y,m*);步骤S5:标定条纹投影系统,将绝对相位Φ(x,y,m*)映射至三维物理空间,重建出被测物体的三维形貌。直接利用截断相位估计参考相位,通过对比截断相位和参考相位便可实现相位展开,具有速度快、精度高、鲁棒性强等优点。
-
公开(公告)号:CN115235374B
公开(公告)日:2024-06-21
申请号:CN202210818527.X
申请日:2022-07-12
Applicant: 安徽农业大学
Abstract: 本发明公开了一种基于参考相位估计的相位展开方法,包括:步骤S1:搭建条纹投影系统,采集被物体调制的条纹图像,并利用相移法从条纹图像中提取截断相位φ(x,y);步骤S2:计算截断相位φ(x,y)的梯度图gX(x,y)和gY(x,y),估计出绝对相位Φ(x,y)的梯度图GX(x,y)和GY(x,y);步骤S3:计算梯度图GX(x,y)和GY(x,y)的平均值,生成一组参考相位Φr(x,y,m),并计算条纹级次k(x,y,m),通过相位展开获得一组绝对相位Φ(x,y,m);步骤S4:计算绝对相位Φ(x,y,m)的梯度图GX(x,y,m)和GY(x,y,m),然后计算绝对相位Φ(x,y,m)的边缘图,记录边缘点数目最少的绝对相位Φ(x,y,m*);步骤S5:标定条纹投影系统,将绝对相位Φ(x,y,m*)映射至三维物理空间,重建出被测物体的三维形貌。直接利用截断相位估计参考相位,通过对比截断相位和参考相位便可实现相位展开,具有速度快、精度高、鲁棒性强等优点。
-
公开(公告)号:CN115641577A
公开(公告)日:2023-01-24
申请号:CN202211344388.8
申请日:2022-10-31
Applicant: 安徽农业大学
IPC: G06V20/68 , G06V10/50 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种基于改进YOLOv5网络的果实识别方法,本发明着眼于农业果实检测,基于传统YOLOv5网络对损失函数进行改进并添加CBAM注意力机制,使得在保持原网络检测速度快的基础上,提高了检测精度,提升了网络的收敛速度,同时对果实图像进行图像增强和数据增强,提高了果实图像的对比度和YOLOv5网络的鲁棒性。相比于传统果实检测网络,本发明中提及的方法在兼顾检测速度的同时具有很好的检测精度,实用性强。
-
公开(公告)号:CN114812418A
公开(公告)日:2022-07-29
申请号:CN202210441110.6
申请日:2022-04-25
Applicant: 安徽农业大学 , 合肥综合性国家科学中心人工智能研究院(安徽省人工智能实验室)
Abstract: 本发明公开了一种便携式植株密度和株距测量系统,包括用于采集并分析植株图像和显示测量结果的手持式终端设备和用于标定区域面积和校正拍摄视角的伸缩式标定组件,成本低、结构紧凑、便于携带;通过提取伸缩式标定组件中标志球的球心,利用透视变换可自动校正拍摄视角,植株图像拍摄灵活性强、自动化程度高;利用深度学习网络训练植株模型,识别并定位单个植株,进而计算出植株密度和株距,自动化程度高。
-
公开(公告)号:CN115200504B
公开(公告)日:2024-06-21
申请号:CN202210819888.6
申请日:2022-07-12
Applicant: 安徽农业大学
Abstract: 本发明公开了一种基于参考截断相位的三维测量方法,包括:步骤S1:搭建条纹投影系统,包括投影仪、摄像机和计算机三部分;步骤S2:采集参考背景板调制的条纹图像,利用相移法提取参考截断相位φref(x,y);步骤S3:采集物体调制的条纹图像,利用相移法提取物体截断相位φobj(x,y);步骤S4:将物体截断相位φobj(x,y)减去相移后的参考截断相位φref(x,y,m),获得取值区间为[‑2π,+2π]的相位图Φ(x,y,m);步骤S5:将取值区间为[‑2π,+2π]的相位图Φ(x,y,m)转换成取值区间为[‑π,+π]的相位图Φ′(x,y,m);并记录边缘点数目最少的相位图Φ′(x,y,m*);步骤S6:标定条纹投影系统,将相位图Φ′(x,y,m*)映射至三维物理空间,重建出物体的三维形貌。借助参考截断相位,直接从物体截断相位中重建出物体三维形貌,无需进行相位展开,具有速度快、精度高、鲁棒性强等优点。
-
公开(公告)号:CN115200504A
公开(公告)日:2022-10-18
申请号:CN202210819888.6
申请日:2022-07-12
Applicant: 安徽农业大学
Abstract: 本发明公开了一种基于参考截断相位的三维测量方法,包括:步骤S1:搭建条纹投影系统,包括投影仪、摄像机和计算机三部分;步骤S2:采集参考背景板调制的条纹图像,利用相移法提取参考截断相位φref(x,y);步骤S3:采集物体调制的条纹图像,利用相移法提取物体截断相位φobj(x,y);步骤S4:将物体截断相位φobj(x,y)减去相移后的参考截断相位φref(x,y,m),获得取值区间为[‑2π,+2π]的相位图Φ(x,y,m);步骤S5:将取值区间为[‑2π,+2π]的相位图Φ(x,y,m)转换成取值区间为[‑π,+π]的相位图Φ′(x,y,m);并记录边缘点数目最少的相位图Φ′(x,y,m*);步骤S6:标定条纹投影系统,将相位图Φ′(x,y,m*)映射至三维物理空间,重建出物体的三维形貌。借助参考截断相位,直接从物体截断相位中重建出物体三维形貌,无需进行相位展开,具有速度快、精度高、鲁棒性强等优点。
-
公开(公告)号:CN115063341A
公开(公告)日:2022-09-16
申请号:CN202210351062.1
申请日:2022-04-02
Applicant: 安徽农业大学
Abstract: 本发明公开了一种基于相移条纹的苹果果梗和花萼检测方法,通过搭建条纹投影系统;采用相移法计算相移条纹图像的截断相位,结合连通域标记算法、二维凸包算法和逻辑运算获得果梗花萼区域的掩膜图像;根据果梗花萼的凹形特征,无需重建苹果三维面形,通过分析处理相移条纹的截断相位,有效地检测出果梗花萼区域,具有非接触、成本低、精度高、速度快、鲁棒性强的优点。
-
-
-
-
-
-
-
-
-