-
公开(公告)号:CN113034475B
公开(公告)日:2024-04-19
申请号:CN202110339571.8
申请日:2021-03-30
Applicant: 浙江工业大学
IPC: G06T7/00 , G06T5/70 , G06V10/774 , G06V10/82 , G06N3/0464 , G06N3/048 , G06N3/08 , G06T5/60
Abstract: 一种基于轻量级三维卷积神经网络的手指OCT体数据去噪方法,包括如下步骤:1)构建轻量级三维卷积模块;2)构建轻量级三维卷积神经网络模型,设定参数,进行训练;3)利用训练好的轻量级三维卷积神经网络,对OCT体数据进行去噪。本发明可以对手指体数据整体进行去噪,并且将网络轻量化,减少网络训练参数,加快去噪速度。
-
公开(公告)号:CN116721212A
公开(公告)日:2023-09-08
申请号:CN202310687724.7
申请日:2023-06-12
Applicant: 浙江工业大学
IPC: G06T17/00 , G06T7/80 , G06T3/40 , G06V40/13 , G06V40/12 , G06N3/0464 , G06N3/048 , G06N3/0475 , G06N3/094
Abstract: 一种基于无监督超分辨率的三维指纹方法,包括如下步骤:1)设计无监督超分辨率网络模型;2)使用系统采集的条纹投影指纹图像,通过无监督超分辨率神经网络模型来提高条纹投影指纹图像的分辨率,利用超分辨率后的图像进行三维重建,得到指纹的三维结构。本发明设计了一个无监督神经网络能够解决单一低分辨率条纹投影指纹的超分辨率,同时也改善结构光采集到的条纹投影指纹边缘模糊现象,从而使三维重建后的指纹图像更加清晰,精度更高。
-
公开(公告)号:CN115273158A
公开(公告)日:2022-11-01
申请号:CN202210691578.0
申请日:2022-06-17
Applicant: 浙江工业大学
Abstract: 一种基于OCT体数据的手指伪造攻击检测方法,包括:检测内外部指纹的细节点数量和皮下汗腺的数量;设置细节点数量阈值num1,num2,汗腺数量阈值num3,内外指纹匹配得分阈值t,皮下汗腺位置和内指纹脊线重合率n;若内指纹细节点数量多于num1且外指纹细节点数量多于num2,则计算内外指纹匹配得分;若内指纹细节点数量少于num1,则直接判断为手指伪造攻击;若汗腺数量少于num3,则直接判断为手指伪造攻击;若汗腺数量多于num3,如果内外指纹匹配得高于t则系统直接通过检测;若汗腺数量少于num3的同时,内指纹的细节点数量少于num1,则进入下个步骤;计算皮下汗腺位置和内指纹的脊线重合率;若重合率高于设定值n,则通过检测,否则判断为手指伪造攻击。
-
公开(公告)号:CN110334566B
公开(公告)日:2021-08-03
申请号:CN201910219860.7
申请日:2019-03-22
Applicant: 浙江工业大学
Abstract: 一种基于三维全卷积神经网络的OCT内外指纹提取方法,包括如下步骤:1)对每幅指纹OCT图像中的角质层区域位置和乳头层区域位置进行手工标注,得到与OCT图像对应的标注图片,进行ROI提取和数据增强,构成标注数据集;2)构建三维全卷积神经网络模型,设定训练参数和损失函数,使用标注好的数据集训练模型;3)通过训练好的全卷积神经网络模型预测未标注的OCT图像的角质层、乳头层;4)根据所有OCT图像的角质层和乳头层,按照相对深度以及OCT图像空间顺序,经过拼接,分别得到OCT指纹的外指纹和内指纹。本发明通过三维全卷积神经网络来学习提取OCT图像的角质层和乳头层特征,从而生成准确的内外指纹。
-
公开(公告)号:CN111723848A
公开(公告)日:2020-09-29
申请号:CN202010452771.X
申请日:2020-05-26
Applicant: 浙江工业大学
Abstract: 一种基于卷积神经网络和数字全息的海洋浮游生物自动分类方法,包括以下步骤:1)使用数字全息系统拍摄海洋浮游生物的全息图像;2)构建卷积神经网络模型,设定卷积层数,卷积核尺寸,训练参数和损失函数,将1)中得到的图片输入至神经网络中,运行神经网络,获得最终分类结果。本发明针对目前数字全息系统对海洋浮游生物的广泛应用,为满足高效率、低成本和快速性的要求,利用数字全息技术结合深度学习技术,公开了一种基于数字全息图像的海洋浮游生物快速分类方法。
-
公开(公告)号:CN111666813A
公开(公告)日:2020-09-15
申请号:CN202010356352.6
申请日:2020-04-29
Applicant: 浙江工业大学
Abstract: 一种基于非局部信息的三维卷积神经网络的皮下汗腺提取方法,包括如下步骤:1)利用归一化算法图像增强后,通过截取局部数据和数据旋转进行数据增广;2)通过添加Non_local模块构建基于非局部信息的三维卷积神经网络模型,损失函数采用Dice损失函数;3)将步骤一获取的训练集输入神经网络进行训练;4)利用汗腺体的大小的一定规律和汗腺体上下端的位置偏差不会太大的特性从初步的三维汗腺体图像中筛选并去除伪汗腺体。本发明充分利用指纹切片之间的像素相关性,利用非局部的信息来增加信息量,增强汗腺体信息,提高了指汗腺体检测的准确率。
-
公开(公告)号:CN110309699A
公开(公告)日:2019-10-08
申请号:CN201910219874.9
申请日:2019-03-22
Applicant: 浙江工业大学
IPC: G06K9/00
Abstract: 一种基于OCT的皮下汗孔图提取方法,包括如下步骤:1)对每张OCT图像的每个像素进行灰度值差分运算,并选择结果大于阈值的点作为初始特征点集;2)应用霍夫变换,将角质层特征点集从初始特征点集中分离出来,并对其进行二次多项式拟合得到角质层轮廓,同时去除位于角质轮廓周围附近以及上方的特征点;3)由远及近地去除乳头层轮廓外的特征点,得到准确的乳头层特征点集,并对其进行三次插值拟合得到乳头层轮廓;4)据两条轮廓的位置获得汗腺切线,然后将所有OCT图像中获得的汗腺切线拼接成大小为W×N皮下汗孔图,再经过图像增强获得最后结果。本发明能够得到正确的汗腺切线,最后获得清晰的皮下汗孔图。
-
公开(公告)号:CN118781018A
公开(公告)日:2024-10-15
申请号:CN202411239305.8
申请日:2024-09-05
Applicant: 浙江工业大学
IPC: G06T5/73 , G06T5/50 , G06T5/60 , G06N3/0455 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种基于深度学习的红外图像辅助图像去雾方法,包括获取待去雾的有雾图像和对应的红外图像。在图像去雾模型中引入红外图像进行辅助去雾,使得在极端条件下也能表现出很好的去雾效果,同时在图像去雾模型中将红外图像作为雾霾密度相关的先验信息,引入了Transformer模块与改进的CNN网络结合提取特征,Transformer可以提取包含烟雾密度的全局特征信息,与CNN网络提取的局部特征信息互补,提高去雾性能;图像去雾模型的注意力模块中设计通道注意力和空间注意力,通道注意力帮助模型更好地关注图像中的重要特征通道,从而提高模型的准确性,空间注意力帮助模型更好地关注图像中的重要区域,进而提高去雾性能。
-
公开(公告)号:CN118506411A
公开(公告)日:2024-08-16
申请号:CN202410969840.2
申请日:2024-07-19
Applicant: 浙江工业大学
IPC: G06V40/12 , G06V10/80 , G06V10/82 , G06N3/0455 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种基于滑动窗口变换器的深浅特征融合的掌纹识别方法,包括获取预处理后的掌纹图像,并输入至训练好的掌纹识别模型中,得到掌纹图像的特征;将掌纹图像的特征分别与数据库中所有参考掌纹图像的特征进行比对,将比对成功的参考掌纹图像筛选出作为匹配成功的掌纹。结合Swin Transformer网络和多尺度特征增强模块,实现了对掌纹图像的高效特征提取和自适应融合,将Swin Transformer网络中的第一阶段模块、第二阶段模块和第四阶段模块的输出,经过多尺度特征增强模块不仅将深层信息和浅层特征信息进行融合,而且强化了各层特征的空间信息,以提高对低分辨率掌纹图像的适应能力,从而实现更高的掌纹识别准确率。
-
公开(公告)号:CN118444477A
公开(公告)日:2024-08-06
申请号:CN202410904632.4
申请日:2024-07-08
Applicant: 浙江工业大学
Abstract: 本发明公开了一种基于FPGA的同步信号控制系统,包括上位机、FPGA模块、振镜、光学图像传感器和采集卡,其中FPGA模块包括BRAM模块、帧解析器、3D扫描模块和2D扫描模块,且3D扫描模块和2D扫描模块均包括操作单元,以及与振镜、光学图像传感器和采集卡依次对应的第一子控制单元、第二子控制单元和第三子控制单元。本发明通过FPGA实现对OCT外设振镜、CCD和采集卡的时序控制,实现了对外设的通用同步控制,解决了传统OCT系统由于控制精度不足导致的图像畸变问题;本发明通过单独配置外设振镜、CCD和采集卡的延迟,在几乎不消耗任何资源的情况下实现了对外设固有延迟的精确补偿,解决了采集的OCT图像的错位问题,且简单有效。
-
-
-
-
-
-
-
-
-