-
公开(公告)号:CN118298424A
公开(公告)日:2024-07-05
申请号:CN202410487634.8
申请日:2024-04-22
Applicant: 无锡学院
IPC: G06V20/69 , G06V10/25 , G06V10/82 , G06N3/0455 , G06N3/0464 , G06N3/082
Abstract: 本发明公开了一种基于卷积神经网络的过参数化血细胞检测系统,涉及目标检测技术领域,为解决血细胞像素小,相互遮挡等问题,本发明提出的YOLOv7‑CDD算法在backbone网络中引入CBAM注意力机制,以较小的计算成本,增加重要信息权重,忽略无用信息,以提高网络对于各类血细胞关注度;在neck网络中的下采样部分添加DODConv模块,既可以轻量化网络,又能增强模型对小目标信息的捕捉能力;然后将预测头解耦,增强网络分类和回归能力,提高识别精度,减少了不同信息的耦合性,提升模型对于异常细胞检测的鲁棒性。
-
公开(公告)号:CN117871051A
公开(公告)日:2024-04-12
申请号:CN202410047374.2
申请日:2024-01-12
Applicant: 无锡学院
IPC: G01M11/02
Abstract: 本发明公开了一种大型光学系统微振动抑制光轴指向稳定性精度测试方法,涉及光学测试技术领域,以光管为测试提供无穷远测试光束,配合平台、星点、光源、微振动激励器、立方棱镜、经纬仪、成像探测器等设备,星点目标的大小不超过5μm;光管的口径至少覆盖待测系统口径的三分之二,以保证待测目标的能量足够被光学系统像面的探测器有效接收;进一步的利用微振动激励器模拟光学系统实际开机工作振动状态,在不同时刻,多次记录同一视场下像斑的位置,通过探测器上接收到的像斑,提取像斑质心坐标,计算像斑在不同维度的偏移量,进而完成光轴指向精度测试计算实际像斑与理想像斑成像位置的差异,最终判断光学系统的光轴指向稳定性精度。
-
公开(公告)号:CN118587676A
公开(公告)日:2024-09-03
申请号:CN202410482624.5
申请日:2024-04-22
Applicant: 无锡学院
IPC: G06V20/58 , G06V10/25 , G06V10/44 , G06V10/80 , G06V10/82 , G06N3/045 , G06N3/0464 , G06N3/0495 , G06N3/082 , G06N3/084 , G06N3/0985
Abstract: 本发明公开了一种基于轻量化卷积神经网络的交通标志检测方法,通过使用Ghost卷积和深度卷积构建新的主干模块,成功减少了参数量和计算量,从而提高算法的效率;引入SPDC模块增强了算法对多尺度特征信息的提取能力,进一步提升了模型的检测准确性;引入CARAFE上采样算子有助于增强特征网络的空间分辨率,使模型更精确地还原目标的细节信息;通过采用Focal‑EIoU损失函数替换传统的CIoU损失函数,成功解决了类别不平衡和边界框回归问题,有效提高了检测精度;改进后的模型方法不仅有效提升了交通标志检测的准确性,而且易于部署到嵌入式设备中实现实时在线检测,进一步提升了自动驾驶环境感知的智能化水平。
-
公开(公告)号:CN118298404A
公开(公告)日:2024-07-05
申请号:CN202410462556.6
申请日:2024-04-17
Applicant: 无锡学院
IPC: G06V20/58 , G06V10/52 , G06V10/764 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/048 , G06N3/08
Abstract: 本发明公开了一种基于改进YOLOv5s模型的交通标识检测方法,包括以下步骤:步骤1:获取交通标识图像数据集,并将交通标识图像数据集分为训练集和测试集;步骤2:改进YOLOv5s模型:将Neck网络中C3模块的3×3卷积替换为多样性分支DBB模块,得到C3_DB模块,在C3_DB模块后引入Context Aggregation模块;步骤3:将获得的训练集输入搭建好的YOLOv5s模型进行训练;用EIOU_Loss作为损失函数,当YOLOv5s模型损失曲线趋近于0且无明显波动时,停止训练,得到训练权重w,否则继续训练;步骤4:将获取到的交通标识图像输入到训练后的YOLOv5s模型中,进行交通标识检测,YOLOv5s模型根据权重自动识别交通标识的种类及数量。本发明改进后的YOLOv5s模型有效地提升了交通标志检测精度。
-
公开(公告)号:CN120014238A
公开(公告)日:2025-05-16
申请号:CN202510114135.9
申请日:2025-01-24
Applicant: 无锡学院
IPC: G06V10/25 , G06V10/82 , G06N3/0464 , G06N3/08 , G06N3/045
Abstract: 本发明提供一种基于改进的YOLOv8模型的灰度图像目标检测方法,涉及图像目标检测的技术领域。首先,获取待检测的灰度图像。接着,构建改进的YOLOv8模型,在backbone主干网络中,利用SAConv变换空洞卷积层代替标准卷积层,以适应不同尺度的灰度图像特征;在Neck颈部网络中,引入EMA多尺度注意力层,以提升对灰度图像纹理细节的关注;在head检测头网络中,利用RFAConv区域特征自适应卷积层代替标准卷积层,以增强对灰度图像小目标区域的关注。最后,对改进的YOLOv8模型进行训练,得到训练好的改进的YOLOv8模型;将待检测的灰度图像输入至训练好的改进的YOLOv8模型,得到图像目标检测结果。本发明整体上使用了改进的YOLOv8模型,提高灰度图像目标检测的精确度。
-
公开(公告)号:CN118470370A
公开(公告)日:2024-08-09
申请号:CN202410310575.7
申请日:2024-03-19
Applicant: 无锡学院
IPC: G06V10/764 , G06V10/774 , G06V10/82 , G06V10/44 , G06V10/42 , G06N3/0464 , G06N3/0455 , G06N3/08
Abstract: 本发明公开了基于信息交互的细粒度图像分类方法,包括:将输入图像分别输入到CNN分支网络的ResNet模块以及CB‑ViT模型的LFE模块中,ResNet模块对输入图像进行特征提取,得到特征图,并将特征图输入到级联CNN模块中,获取输入图像的局部特征;通过LFE模块获取输入图像的低级特征,将输入图像的低级特征输入到ViT分支网络中进行全局特征的提取,获取输入图像的全局图像信息;patch embedding模块将待分类的输入图像数据转化为特征图序列,通过线性映射将特征图序列投影到高维空间,添加一个分类标志向量,以用于最终输出概率分布,添加一个可学习的位置编码矩阵,以用于附加位置信息;Transformer Encoder模块将分类标志向量通过线性变换与激活函数的组合,得到待输入图像的细粒度分类。
-
公开(公告)号:CN118212691A
公开(公告)日:2024-06-18
申请号:CN202410339601.9
申请日:2024-03-25
Applicant: 无锡学院
IPC: G06V40/20 , G06V20/52 , G06V20/54 , G06V10/764 , G06N3/0464
Abstract: 本发明公开了一种基于卷积神经网络的非机动车违规载人行为检测方法,包括:获取监控视频,采集监控视频中的违规行为图像,生成行为数据集,对行为数据集进行标注;将改进的Yolov5网络模型作为行人目标检测模型:在backbone网络的C3层后添加CBAM注意力机制模块;在neck网络的C3层后添加Swin‑Transformer编码器;利用预设的SORT跟踪算法对监控视频中的行人目标进行追踪,使用训练好的YOLOv5网络模型对待测数据集进行检测,识别得到非机动车违规载人行为检测结果。本发明提出一种基于改进Yolov5和SORT跟踪算法联合使用的检测方法,运用改进的Yolov5检测交通路口状况,在准确检测到非机动车违规载人行为的同时,SORT跟踪算法对目标进行跟踪标记,实现违规行为图像的实时监测。
-
公开(公告)号:CN116630604A
公开(公告)日:2023-08-22
申请号:CN202310404270.8
申请日:2023-04-14
Applicant: 无锡学院
IPC: G06V10/25 , G06V10/44 , G06V10/774 , G06V10/764 , G06V10/82 , G06N3/0464
Abstract: 本发明公开了一种垃圾图像分类方法及系统,所述方法包括以下步骤:步骤1、获取垃圾数据集,将垃圾数据集分为训练集和测试集;步骤2、改进YOLOv5模型:使用CBAM注意力机制作为特征提取模块、使用BiFPN结构作为特征融合结构、使用边界框损失函数LCIoU;步骤3、利用K‑means聚类方法得到训练集的先验锚框,利用训练集的先验锚框、边界框损失函数LCIoU对改进的YOLOv5模型进行训练;步骤4、利用训练好的YOLOv5模型对测试集进行检测,输出垃圾目标检测结果,得到正确的垃圾类别。通过本发明方法可以提高垃圾识别准确率。
-
-
-
-
-
-
-
-