一种基于特征学习的跨年龄人脸验证方法

    公开(公告)号:CN104866829A

    公开(公告)日:2015-08-26

    申请号:CN201510270145.8

    申请日:2015-05-25

    Applicant: 苏州大学

    CPC classification number: G06K9/00221 G06K9/00268 G06K9/00288

    Abstract: 本发明公开了一种基于特征学习的跨年龄人脸验证方法,包括如下步骤:(1)获取待对比的两幅人脸图像;(2)利用人脸特征点定位的方法对两幅人脸图像进行对齐操作;(3)分别对每幅图像进行特征提取,方法为:①通过深度卷积神经网络自动提取高层语义特征;②计算图像的LBP直方图特征;③将①和②中获得的特征进行融合,表达为特征向量;(4)采用余弦相似度方法计算步骤(3)获得的两幅图像的特征向量之间的距离,据此判断两幅图像是否来自同一人。本发明首次将深度网络应用到跨年龄人脸验证,同时创造性地将手工设计的LBP直方图特征与深度网络自主学习的特征进行融合,实现高层语义特征与低层特征的互补,具有更好的准确率。

    基于非清晰区域抑制的多特征融合显著区域提取方法

    公开(公告)号:CN102521592B

    公开(公告)日:2013-06-12

    申请号:CN201110390185.8

    申请日:2011-11-30

    Applicant: 苏州大学

    Abstract: 本发明公开了一种基于非清晰区域抑制的多特征融合显著区域提取方法,首先输入待处理的源图像,再进行如下处理:(1)预处理;(2)对经过预处理的图像进行低层特征提取,获得空间显著图和频域显著图;(3)对经过预处理的图像进行高层语义特征提取,获得人脸显著图;(4)对步骤(2)和步骤(3)获得的空间显著图、频域显著图和人脸显著图进行中心聚集化操作,获得综合显著图;(5)根据综合显著图对待处理的源图像进行分割处理,提取出显著区域。本发明解决了传统的显著区域检测方法中存在的对大尺度目标图像检测内容缺失问题和对背景复杂图像情况下检测的误检问题,是一种准确度更高的显著区域检测方法。

    一种运动目标检测方法
    13.
    发明公开

    公开(公告)号:CN102903124A

    公开(公告)日:2013-01-30

    申请号:CN201210338285.0

    申请日:2012-09-13

    Applicant: 苏州大学

    Abstract: 本发明公开了一种运动目标检测方法,包括背景建模和前景检测,采用混合高斯模型进行背景建模并进行模型更新,获得B个高斯分布,对于待检测的帧图像中的一个像素点,如果在上述排序后的B个高斯分布中,至少有一个高斯分布与当前像素值匹配,则该像素点为一个背景像素,否则判定其为前景像素。本发明能有效地过滤前景噪声,得到十分干净的背景,既保留高效的去噪效果又增强了前景目标检测的准确性和完整性。

    一种文档主题的在线追踪方法

    公开(公告)号:CN103345474A

    公开(公告)日:2013-10-09

    申请号:CN201310223574.0

    申请日:2013-07-25

    Applicant: 苏州大学

    Abstract: 本发明公开了一种文档主题的在线追踪方法,包括如下步骤:首先对数据进行预处理,主要是将数据切分成若干独立段,然后逐段训练以解决内存不足的问题;对数据在主题模型上采用在线学习算法进行训练,其中每段的训练均权重依赖已经训练得到的结果;最后,对每段训练得到的结果进行主题演变分析,对相应的主题进行追踪。本发明采用在线学习算法训练模型的精度和速度都很高,有效的解决了主题模型训练中的一些不足,在海量数据和数据流中表现出较好的鲁棒性。

    用于脱机手写汉字识别的汉字字符切分方法

    公开(公告)号:CN102496013B

    公开(公告)日:2013-08-21

    申请号:CN201110357395.7

    申请日:2011-11-11

    Applicant: 苏州大学

    Abstract: 本发明公开了一种用于脱机手写汉字识别的汉字字符切分方法,其特征在于,包括下列步骤:(1)对待识别的汉字图像进行预处理,所述预处理包括对图像进行二值化处理;(2)基于投影分析对汉字图像进行粗分割,将非粘连的字符分割成单个字符,将粘连的字符整体分割;(3)获得非粘连字符的平均高度;(4)根据步骤(3)获得的非粘连字符的平均高度,对步骤(2)分割后的字符进行判断,得到粘连字符串集;(5)对于粘连字符串集中的每一粘连字符串,基于最小加权分割路径进行细切分,实现粘连字符的切分。本发明可以有效地自适应分割粘连汉字字符和非粘连汉字字符,具有较高的分割准确率和分割效率。

    基于非清晰区域抑制的多特征融合显著区域提取方法

    公开(公告)号:CN102521592A

    公开(公告)日:2012-06-27

    申请号:CN201110390185.8

    申请日:2011-11-30

    Applicant: 苏州大学

    Abstract: 本发明公开了一种基于非清晰区域抑制的多特征融合显著区域提取方法,首先输入待处理的源图像,再进行如下处理:(1)预处理;(2)对经过预处理的图像进行低层特征提取,获得空间显著图和频域显著图;(3)对经过预处理的图像进行高层语义特征提取,获得人脸显著图;(4)对步骤(2)和步骤(3)获得的空间显著图、频域显著图和人脸显著图进行中心聚集化操作,获得综合显著图;(5)根据综合显著图对待处理的源图像进行分割处理,提取出显著区域。本发明解决了传统的显著区域检测方法中存在的对大尺度目标图像检测内容缺失问题和对背景复杂图像情况下检测的误检问题,是一种准确度更高的显著区域检测方法。

    基于深度特征和双向KNN排序优化的行人再识别方法

    公开(公告)号:CN109165612B

    公开(公告)日:2021-07-09

    申请号:CN201811007813.8

    申请日:2018-08-31

    Applicant: 苏州大学

    Abstract: 本发明公开了一种基于深度特征和双向KNN排序优化的行人再识别方法,包括三个阶段,特征提取阶段:获得在ImageNet数据集上预训练好的ResNet‑50模型,利用行人再识别数据集对预训练模型进行微调,利用微调后的模型分别对目标图像和候选集图像进行特征提取以获得特征向量;度量学习阶段:对提取的两个特征向量通过度量学习学习出一个度量函数来衡量它们间的相似性,根据它们的距离远近得到初始排名;重排序阶段:根据双向KNN关系和双向KNN集,计算两张图像间的双向KNN距离,将初始距离和双向KNN距离加权求和作为最终的距离,得到优化后的排名。本发明能够更好的表示一个行人,在初始排名的基础上提高行人再识别的精度,减轻人力和机器资源的压力,具有良好的普适性。

    一种基于稀疏时空特征的行为识别方法

    公开(公告)号:CN104933417B

    公开(公告)日:2019-03-15

    申请号:CN201510362048.1

    申请日:2015-06-26

    Applicant: 苏州大学

    Abstract: 本发明公开了一种基于稀疏时空特征的行为识别方法,包括如下步骤:步骤一、对于输入视频采用时空Gabor与原输入视频进行卷积构造尺度空间;步骤二、将不同尺度的表达作为时空深度置信网络不同通道的值,联合学习多尺度的特征;步骤三、对行为特征进行识别分类。本发明通过尺度空间的构建输入深度网络联合学习多尺度的特征,提高行为识别的性能,针对池化操作的信息损失问题,引入空间金字塔的思想,对池化输出进行多级扩充,并结合稀疏编码进行金字塔多级特征的融合,降低了池化层输出的特征维度,进一步改进了原有网络的性能,提高了行为识别率。

    基于弱监督定位和子类别相似性度量的细粒度车型识别方法

    公开(公告)号:CN109359684A

    公开(公告)日:2019-02-19

    申请号:CN201811208757.4

    申请日:2018-10-17

    Applicant: 苏州大学

    Abstract: 本发明公开了一种基于弱监督定位和子类别相似性度量的细粒度车型识别方法,包括:1)弱监督定位:用预训练好的VGG-Net网络对图像目标定位,对卷积层的掩码图进行处理,获取目标物体的边界框;2)构建模糊相似矩阵:将训练集中定位后的图片利用B-CNN网络提取特征,根据softmax分类结果得到度量各子类别相似性的模糊相似矩阵;3)采样组建三元组集:在模糊相似矩阵基础上采样组建三元组;4)联合学习改进的损失函数:利用改进的损失函数联合学习改进的triplet损失和加权的softmax损失对同一子类别样本间距离进行限制,增大不同子类别样本间的距离。本发明较原始模型定位更加准确、并且在分类准确性上有明显提升,能够很好地对车辆目标进行定位。

    基于参考图像的线稿上色模型的训练方法以及装置

    公开(公告)号:CN108615252A

    公开(公告)日:2018-10-02

    申请号:CN201810414328.6

    申请日:2018-05-03

    Applicant: 苏州大学

    Abstract: 本发明公开了一种基于参考图像的线稿上色模型的训练方法,能够利用多组训练样本,训练线稿上色模型获取参考图像的语义信息特征,并根据语义信息特征对线稿进行上色,得到上色线稿,然后对上色线稿和对比线稿进行鉴别,并不断调整模型参数直至鉴别结果满足预设要求。可见,该方法训练得到的模型能够获取参考图像中的语义信息特征,并利用语义信息特征对线稿进行上色,因而能够通过切换不同的参考图像来为线稿上不同风格的色彩,避免了色彩风格单一的问题。此外,本发明还提供了基于参考图像的线稿上色模型的训练装置、设备和计算机可读存储介质,以及基于参考图像为线稿上色的方法和装置,其作用与上述训练方法的作用相对应。

Patent Agency Ranking