一种基于改进YOLOv8的X光安检图像危险品分割与检测系统

    公开(公告)号:CN119919664A

    公开(公告)日:2025-05-02

    申请号:CN202510018070.8

    申请日:2025-01-06

    Abstract: 本发明属于目标检测技术领域,具体涉及一种基于改进YOLOv8的X光安检图像危险品分割与检测系统。该方法依次执行以下步骤:获取X光安检图像数据集,并按比例划分为训练集和测试集;对YOLOv8‑seg架构进行改进,针对主干网络和颈部网络的卷积层进行优化,通过结合空间深度转换卷积(Space‑to‑Depth Convolution,SPD‑Conv)来增强对主干网络和颈部网络特征的提取能力,从而提高对小型目标、遮挡物体及复杂背景下危险品的分割精度,提升模型对X光安检图像危险品的检测能力。本发明通过结合SPD‑Conv模块改进YOLOv8‑seg算法,能够在复杂背景下对交通枢纽的X光安检图像中的危险品进行精确分割和检测,显著提高了检测能力,为优化安检流程提供了有力的技术支持。

    一种基于多特征融合的眼动追踪系统及方法

    公开(公告)号:CN119723650A

    公开(公告)日:2025-03-28

    申请号:CN202411802689.X

    申请日:2024-12-09

    Abstract: 本发明选取被测者的多帧图像,首先通过骨干网络初步获取多帧图像中的头部特征、左眼特征和右眼特征。对于头部特征而言,假设头部为刚体,通过张正友标定法获取相机的参数模型结果,进而通过EPnP算法实现头部自由姿态的估计;然后将特征提取模块用于对左眼,右眼和头部的多帧特征提取,进一步并得到每一帧相应的预测值和置信度;最后通过特征融合模块捕捉全局信息并有效地整合上下文信息,它包括通道和空间注意力机制,二者能够自动识别并增强那些对任务有较大贡献的通道特征,从而在特征提取融合过程中突出眼动追踪的关键特征,抑制不相关的部分,提升特征的表达能力,实现精确的眼动追踪。

    基于联邦学习的高鲁棒性异构软件缺陷预测算法

    公开(公告)号:CN119312155A

    公开(公告)日:2025-01-14

    申请号:CN202411310183.7

    申请日:2024-09-19

    Abstract: 本发明属于联邦学习与软件缺陷预测技术领域,具体涉及一种基于联邦学习的高鲁棒性异构软件缺陷预测算法。该算法首先利用Tomek links和单边选择(One‑Side Selection,OSS)算法对参与方本地数据进行预处理,缓解类不平衡问题;通过卡方检验选出代表性特征子集,统一各参与方数据的特征数量。各参与方构建本地卷积神经网络,将数据划分为训练集和测试集。通过引入客户端置信度重新加权(Client Confidence Reweighting,CCR)和改进的Bootstrap Loss损失函数,增强模型在标签噪声条件下的鲁棒性,并通过KL散度进行知识交换,降低通信开销,提高模型性能。最终,模型经过训练和验证,实现了高效精准的软件缺陷预测,有效应对数据异构性和标签噪声问题,提升了预测精度和效率。

    结合噪声启发和注意力机制改进的NAS高光谱图像农作物分类方法

    公开(公告)号:CN119295804A

    公开(公告)日:2025-01-10

    申请号:CN202411310186.0

    申请日:2024-09-19

    Abstract: 本发明一种结合噪声启发和注意力机制改进的NAS高光谱图像农作物分类方法涉及遥感图像分类领域;该方法依次执行以下步骤:步骤a、获取高光谱图像数据集,并人为地向图像数据中注入随机噪声;步骤b、构建一个用于高光谱图像农作物分类的神经网络架构搜索模型,集成通道注意力机制和位置尺度感知机制,以提高计算效率和模型的适应能力,并使用焦点损失函数增强对困难样本的处理和抗噪性能;步骤c、搜索架构并进行架构评估;步骤d、利用最终输出的架构进行模型训练;步骤e、使用完整的测试集进行测试,并输出分类结果。本发明通过引入基于通道的注意力机制、位置和尺度感知机制,以及焦点损失函数,显著增强了对混有噪音的高光谱农作物图像的处理能力,从而在分类精度和模型的鲁棒性方面取得了显著提升。

    一种基于FPSA-L2CSNet的视线估计系统及方法

    公开(公告)号:CN117351553A

    公开(公告)日:2024-01-05

    申请号:CN202310848917.6

    申请日:2023-07-12

    Abstract: 一种基于FPSA‑L2CSNet的视线估计系统及方法,涉及计算机视线估计领域。本发明的面部特征提取单元包括以获取低层次特征的5个Single BlazeBlock和用以获取高层次特征的6个Double BlazeBlock,根据低层次特征图和高层次特征图获取人脸的五官信息,定位左眼区域和右眼区域;ResNet网络包括依次布置的第一残差模块组、第二残差模块组、第三残差模块组和第四残差模块组,第一残差模块组、第二残差模块组、第三残差模块组和第四残差模块组分别由若干残差模块构成,残差模块包括两个1×1卷积层和PSA模块。通过面部特征提取单元缩小人眼特征区域的提取范围,采用改进ResNet网络实现更细粒度水平的特征提取,达到精准的视线估计效果。

    一种基于改进YOLOv3模型的芯片缺陷检测方法

    公开(公告)号:CN117274775A

    公开(公告)日:2023-12-22

    申请号:CN202311221688.1

    申请日:2023-09-20

    Abstract: 本发明公开一种基于改进YOLOv3模型的芯片缺陷检测方法属于图像检测领域。本发明解决了在复杂情况下,芯片缺陷检测精度低的问题。首先,获取不同的芯片缺陷的图像,构建数据集,并划分训练集和测试集;其次,改进EMO(Efficient Model,高效模型)模块,将模型内部的SE(Squeeze and Excitation,压缩和激励)注意力更新为CA(CoordinateAttention,坐标注意力);然后,使用改进的EMO更换原YOLOv3的Darknet‑53主干网络;接着,采用SIoU(Smoothed Intersection over Union,平滑交并比)损失函数作为原YOLOv3网络模型中的损失函数,使用改进后的YOLOv3模型对数据集进行训练得到芯片缺陷检测模型;最后,利用训练好的模型进行检测。该模型能够增强网络学习特征的表达能力,提高模型的准确度和实时性,还能够在复杂情况下实现对芯片缺陷的精确检测。

    新型耦合共享的高光谱与LiDAR数据协同分类方法

    公开(公告)号:CN115841599A

    公开(公告)日:2023-03-24

    申请号:CN202211703105.4

    申请日:2023-02-23

    Abstract: 本发明新型耦合共享的高光谱与LiDAR数据协同分类方法属于图像分类技术领域;该方法依次执行以下步骤:步骤a、使用主成分分析方法去除高光谱图像的光谱冗余,然后送入空洞空间金字塔池化(Atrous Spatial Pyramid Pooling,ASPP)模块提取多分辨率特征;步骤b、将LiDAR数据输入到另一支路的ASPP模块,提取多分辨率特征;步骤c、将高光谱和LiDAR两支路的多分辨率特征分别输入各支路的三个可分离卷积模块中,其中两支路之间第二个和第三个的可分离卷积模块进行参数共享;步骤d、将高光谱和LiDAR数据两支路的特征分别输入各支路的多头自注意力(Multi‑Head Self‑Attention,MHSA)中来提取更加有效的信息;步骤e、将MHSA加权后的高光谱和LiDAR特征进行融合,并使用softmax进行分类。本发明利用ASPP、可分离卷积耦合共享机制和MHSA组成特征提取模块,利用特征融合机制实现不同传感器数据之间的信息互补,进一步增强学习特征的辨别能力,提高地物的分类精度。

    一种基于跨场景自适应学习的高光谱图像分类方法

    公开(公告)号:CN114429565A

    公开(公告)日:2022-05-03

    申请号:CN202210018149.7

    申请日:2022-01-08

    Abstract: 本发明一种基于跨场景自适应学习的高光谱图像分类方法属于图像处理技术领域;该方法依次执行输入待分类的原始高光谱数据集、对输入的高光谱图像原始数据集进行划分、对SD和TD进行特征提取,输入至改进的深度可分离嵌入模型,获得每层输出的特征图、将深度可分离嵌入模型的输出进行聚类、将聚类后的输入样本输入到判别器模型中,并区分SD和TD,获得只含有TD的嵌入空间、通过改进的加权K近邻分类器WKNN进行分类;本发明可以减少分类模型对样本的依赖,并增强模型对数据类别不平衡问题的处理能力,明显提高了分类精度,为实现小样本或无样本情况下高光谱图像精准分类的研究以及工程应用提供新的思路。

    一种基于双支路的高光谱和LiADR数据协同分类方法

    公开(公告)号:CN114429564A

    公开(公告)日:2022-05-03

    申请号:CN202210018148.2

    申请日:2022-01-08

    Abstract: 本发明一种基于双支路的高光谱和LiADR数据协同分类方法属于图像分类技术领域;该方法依次执行以下步骤:输入已配准好的高光谱和LiDAR的.tif数据,将数据输入到双分支网络;使用剪枝方法对高光谱图像进行波段选择;分别对空间和光谱进行特征提取;采用空洞卷积对LiDAR分支进行特征提取;将高光谱图像分支和LiDAR数据分支所提取的特征进行拼接;最后使用softmax对拼接的特征进行分类,获得样本分类标签;本发明基于双支路的高光谱和LiADR数据协同分类方法,利用高光谱和LiDAR数据各自的特点,优势互补,提高分类精度。

Patent Agency Ranking