-
公开(公告)号:CN119904362A
公开(公告)日:2025-04-29
申请号:CN202411781155.3
申请日:2024-12-05
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种基于多尺度可逆‑互注意力机制的多模态图像融合方法。首先将红外图像与可见光图像送入ResInvNet编码器模块,提取多尺度特征;然后将提取到的红外与可见光多尺度特征送入跨模态特征融合模块,生成融合特征,通过解码器模块输出融合后的图像;构建损失函数优化多模态图像融合模型,最后基于优化后的多模态图像融合模型实现图像融合。本发明ResInvNet可以在模型提取更深层级特征的过程中,尽可能多的保留特征的高频有益信息。跨模态特征融合模块基于BSCA模块和AttenFuse模块,可以高效获取模态间互补的有益特征,为多模态下游任务生成所需的融合图像,进而保证视觉算法的稳定性。
-
公开(公告)号:CN114708208B
公开(公告)日:2023-06-16
申请号:CN202210298555.3
申请日:2022-03-16
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种基于机器视觉的名优茶嫩芽识别与采摘点定位方法,具体步骤如下:步骤一、制作名优茶嫩芽的原始数据集;步骤二、原始数据集训练,训练结束后将所得的参数固化成模型并输出;步骤三、获取名优茶嫩芽的测试图像,将测试图像输入至步骤二中输出的模型,并输出测试图像中茶叶嫩芽的预测框和二维掩膜信息;步骤四、获取二维掩膜信息中不同连通域面积,计算最大连通域的最小外接矩形,获得实现最小外接矩形所需的旋转角度,将最小外接矩形旋转角度作为芽轴方向,沿芽轴切线方向获取下刀角度;步骤五、沿芽轴自下而上2%的位置作为采摘点。使用实例分割算法通过模型学习像素间深层特征直接输出嫩芽的掩膜区域,茶芽边缘提取准确。
-
公开(公告)号:CN115861185A
公开(公告)日:2023-03-28
申请号:CN202211421105.5
申请日:2022-11-14
Applicant: 杭州电子科技大学 , 杭州睿坤科技有限公司
Abstract: 本发明涉及一种田间复杂背景的稻飞虱计数模型,包括:获取包含稻飞虱的拍摄图片;对图片中的稻飞虱位置进行手工标注建立数据集;构建基于YOLO v5的稻飞虱计数模型;将稻飞虱数据集输入计数模型进行训练;将测试图片输入计数模型得到检测结果,检测结果即稻飞虱的定位位置。本发明通过对YOLO v5进行改进,在CSP‑Darknet53主干网络中加入Swin_Transformer模块作为特征提取部分,对检测网络颈部加入CBAM注意力机制、SPP模块并用BIFPN结构融合特征,更改网络的检测尺寸,提高模型田间复杂背景的稻飞虱检测精度。
-
公开(公告)号:CN114708208A
公开(公告)日:2022-07-05
申请号:CN202210298555.3
申请日:2022-03-16
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种基于机器视觉的名优茶嫩芽识别与采摘点定位方法,具体步骤如下:步骤一、制作名优茶嫩芽的原始数据集;步骤二、原始数据集训练,训练结束后将所得的参数固化成模型并输出;步骤三、获取名优茶嫩芽的测试图像,将测试图像输入至步骤二中输出的模型,并输出测试图像中茶叶嫩芽的预测框和二维掩膜信息;步骤四、获取二维掩膜信息中不同连通域面积,计算最大连通域的最小外接矩形,获得最小外接矩形旋转角度,将最小外接矩形旋转角度作为芽轴方向,沿芽轴切线方向获取下刀角度;步骤五、沿芽轴自下而上2%的位置作为采摘点。使用实例分割算法通过模型学习像素间深层特征直接输出嫩芽的掩膜区域,茶芽边缘提取准确。
-
公开(公告)号:CN119559394A
公开(公告)日:2025-03-04
申请号:CN202411629927.1
申请日:2024-11-15
Applicant: 杭州电子科技大学
IPC: G06V10/26 , G06V10/40 , G06V10/80 , G06V10/82 , G06V10/74 , G06N3/0464 , G06N3/0455 , G06N3/047
Abstract: 本发明涉及一种面向多模态少样本语义分割的跨尺度特征匹配方法结合不同模态特点,实现有选择性的跨模态特征融合;利用提出的像素‑图像块互注意力匹配模块(pixel‑to‑patch cross attention,PTPCA),实现不同尺度的支持查询对象特征匹配,进而对无标签的新类图像做出准确的像素级分割。
-
公开(公告)号:CN118570623A
公开(公告)日:2024-08-30
申请号:CN202410673247.3
申请日:2024-05-28
Applicant: 杭州电子科技大学
IPC: G06V20/05 , G06V10/80 , G06V10/774 , G06V10/82 , G06N3/0464 , G06N3/048 , G06N3/0455
Abstract: 本发明公开了基于语义指导融合的RGB‑D水下显著性目标检测方法。首先获取训练和测试该任务的RGB‑D水下显著性目标检测数据集,并对图像数据集进行预处理;然后构建并使用训练数据集训练基于深度学习的轻量化RGB‑D水下显著性目标检测模型;最后使用完成训练的网络模型接收测试数据集进行显著目标检测。本发明网络模型以更低的计算复杂度和更少的参数获取不同模态的特征并进行融合,所提出的语义感知模块对高层的两模态特征的交互进行了指导。经过训练后本发明提出的轻量化网络模型对显著目标检测具有较高的精准度。
-
公开(公告)号:CN115861185B
公开(公告)日:2023-08-11
申请号:CN202211421105.5
申请日:2022-11-14
Applicant: 杭州电子科技大学 , 杭州睿坤科技有限公司
Abstract: 本发明涉及一种田间复杂背景的稻飞虱计数方法,包括:获取包含稻飞虱的拍摄图片;对图片中的稻飞虱位置进行手工标注建立数据集;构建基于YOLOv5的稻飞虱计数模型;将稻飞虱数据集输入计数模型进行训练;将测试图片输入计数模型得到检测结果,检测结果即稻飞虱的定位位置。本发明通过对YOLOv5进行改进,在CSP‑Darknet53主干网络中加入Swin_Transformer模块作为特征提取部分,对检测网络颈部加入CBAM注意力机制、SPP模块并用BIFPN结构融合特征,更改网络的检测尺寸,提高模型田间复杂背景的稻飞虱检测精度。
-
-
-
-
-
-