-
公开(公告)号:CN105404865A
公开(公告)日:2016-03-16
申请号:CN201510788080.6
申请日:2015-11-16
Applicant: 杭州电子科技大学
CPC classification number: G06K9/00228 , G06K9/6267
Abstract: 本发明公开了一种基于概率态受限玻尔兹曼机级联的人脸检测方法。本发明包括如下步骤:1、根据人脑对图像分层次学习过程,以P-RBM为基础,构建一个具有一层可视层、四层隐藏层和一层分类层的级联型P-RBM神经网络,2、利用逐层贪婪学习算法和对比差异算法训练四层级联P-RBM结构;再利用交叉熵和共轭梯度法训练分类层,再利用交叉熵和共轭梯度法优化整个级联型P-RBM神经网络;3、利用肤色椭圆拟合算法提取人脸候选区域,再将候选区域逐个输入至级联型P-RBM神经网络,根据分类层的分类结果完成候选区域的人脸分类,从而实现人脸检测。本发明能准确的获取输入数据的语义信息,从而实现具有较低漏检率和误检率的人脸检测。
-
公开(公告)号:CN105354542A
公开(公告)日:2016-02-24
申请号:CN201510710563.4
申请日:2015-10-27
Applicant: 杭州电子科技大学
Abstract: 本发明涉及一种拥挤场景下视频异常事件检测方法。具体步骤是:训练阶段,首先对视频分块并提取块的光流信息表示块的局部特征,然后以块的局部特征作为原子构建图,采用拉普拉斯特征映射降维并采用自适应聚类方法对局部特征分类,获得类中心作为码字;最后由码字组成码本。测试阶段,先对视频分块提取局部特征,然后计算与码本的特征距离相似度,并结合前一时刻的8-邻域信息检测事件。本发明只需对光流特征构成的原子集合进行聚类即可建立正常事件模型,历史时刻的邻域信息进一步提高了异常事件检测的准确性。
-
公开(公告)号:CN104299193A
公开(公告)日:2015-01-21
申请号:CN201410514580.6
申请日:2014-09-29
Applicant: 杭州电子科技大学
Abstract: 本发明涉及一种基于高频和中频信息的图像超分辨率重建方法。本发明的步骤是:首先,计算图像的高频信息和中频信息。图像高频为原高分辨率图像与低分辨率插值放大后图像之间的差值,图像中频为插值放大后的图像与插值放大后且经低通滤波器输出图像之间的差值。其次,将图像高频信息和中频信息作为训练样本对,采用广义迭代收缩方法进行稀疏分解,获得高、中频分量字典对。最后,根据测试图像对应的中频信息和字典对获得图像高频信息,结合测试图像插值放大结果,经非局部相似性和反向迭代方法处理后获得高分辨率图像。本发明只需根据测试图像的中频信息重构出高频信息,并结合插值放大图像即可重建出高分辨率图像,重建图像具有锐化的边缘结构。
-
公开(公告)号:CN102722876B
公开(公告)日:2014-08-13
申请号:CN201210170038.4
申请日:2012-05-29
Applicant: 杭州电子科技大学
Inventor: 陈华华
Abstract: 本发明涉及一种基于残差的图像超分辨率重建方法。本发明的具体步骤是:首先,计算原高分辨率图像与低分辨率图像经插值放大后的图像之间的残差;其次,以低分辨率图像样本特征和对应图像残差建立样本对,以低分辨率样本为基准采用K-均值对样本对进行分类,并对每一类样本对采用K-SVD方法进行训练获得低分辨率样本与图像残差的字典对;最后,根据测试样本与类中心的欧氏距离选择字典对,将与测试样本具有相近欧氏距离的各类别所重建的图像残差求加权和作为重建的最终图像残差,并结合低分辨率图像的插值结果获得高分辨率图像。本发明只需重构图像残差,结合插值图像即可重建高分辨率图像,提高了高分辨率图像边缘细节处的重建结果。
-
公开(公告)号:CN102722875B
公开(公告)日:2014-08-13
申请号:CN201210170035.0
申请日:2012-05-29
Applicant: 杭州电子科技大学
Inventor: 陈华华
Abstract: 本发明涉及一种基于视觉注意和质量可变的图像超分辨率重建方法。本发明的具体步骤是:首先,对低分辨率图像区分人眼敏感区域与非敏感区域;其次,计算低分辨率图像人眼敏感区域的清晰度,根据清晰度通过补偿人眼敏感区域的高分辨率子块残差,采用质量可变的超分辨率重建;最后,对非人眼敏感区域采用Bicubic方法放大,并和人眼敏感区域的高分辨率重建结果融合得到高分辨率图像。本发明根据人眼对图像内容的不同敏感程度,将图像分成人眼敏感区域和非敏感区域,对不同区域采用不同的重建策略,对不敏感区域采用Bicubic插值方法放大,对敏感区域根据不同需求采用质量可变的重建方法,兼顾了重建结果和重建时间。
-
公开(公告)号:CN103955880A
公开(公告)日:2014-07-30
申请号:CN201410146119.X
申请日:2014-04-11
Applicant: 杭州电子科技大学
IPC: G06T1/00
Abstract: 本发明涉及一种基于Zernike矩的DWT-SVD鲁棒盲水印方法。本发明方法包括水印嵌入方法和水印提取方法。水印嵌入方法是对原始图像进行离散小波变换,之后将其低频子带分块并对每小块进行奇异值分解,然后将待嵌入水印进行混沌加密,通过量化每小块的奇异值矩阵的欧式范数嵌入水印,保存水印图像的若干个Zernike矩作为密钥,通过密钥判断受到几何攻击类型并进行校正;水印提取方法是水印嵌入方法的逆过程,包括对受攻击图像进行校正、水印提取,水印解密和恢复。本发明方法结合DWT、SVD在数字水印方面的优势,并利用Zernike矩的旋转、缩放不变性,提高了对旋转、缩放攻击的鲁棒性,可以很好地抵抗常规信号处理。
-
公开(公告)号:CN117745815A
公开(公告)日:2024-03-22
申请号:CN202311696066.4
申请日:2023-12-11
Applicant: 杭州电子科技大学
IPC: G06T7/73 , G06V10/46 , G06V10/75 , G06N3/0464
Abstract: 本发明提供一种等变性注意力迭代稀疏采样的物体6D姿态估计方法及系统,方法:S1.制作观察图的数据集;S2.从观察图的RGB上采样一组2D坐标序列,并将其与深度图对齐,获得采样点的3D坐标;S3.随机初始化一个姿态作为渲染位姿;S4.设置渲染器的渲染位姿,生成在采样2D坐标上对应的渲染像素和3D坐标;S5.将观察像素、渲染像素以及它们对应的3D坐标输入到等变性注意力迭代网络的模型中,输出观察图和渲染图的残差位姿;S6.将残差位姿反馈到上一次的渲染位姿,得到新的渲染位姿,并重复执行S4‑S5;S7.重复执行S2‑S6,对数据集进行迭代训练,直到模型收敛,结束迭代并保存模型的权重文件;S8.利用训练好的模型对测试图片进行6D位姿估计。
-
公开(公告)号:CN111950376B
公开(公告)日:2023-09-29
申请号:CN202010679988.4
申请日:2020-07-15
Applicant: 杭州电子科技大学
IPC: G06V40/18
Abstract: 本发明公开了强方向加权边缘检测及RNL拟合优度的眼睑定位方法。现有的直线拟合定位方法定位速度快,但定位精度低;抛物线拟合定位方法拟合定位精度高,但定位速度慢。本发明方法首先根据虹膜圆心位置分割上下眼睑,确定上、下眼睑区域;然后利用强方向加权的保边去噪平滑滤波算子对眼睑检测前图像预处理;再利用强方向加权的边缘检测算子抑制睫毛干扰,根据虹膜图像中睑缘以上和以下区域的灰度对比值,动态选择边缘检测算子参数,获得待拟合的候选眼睑边缘;最后采用最小二乘法抛物线拟合眼睑边缘,以RNL拟合优度为指标筛选眼睑候边缘选点,完成眼睑定位。本发明方法具有良好的鲁棒性,即使对于受睫毛遮挡严重的上眼睑,也能得到理想的定位结果。
-
公开(公告)号:CN111931590B
公开(公告)日:2023-09-29
申请号:CN202010680477.4
申请日:2020-07-15
Applicant: 杭州电子科技大学
IPC: G06V40/16
Abstract: 本发明公开了自适应四角星形局部图结构的均衡人脸特征提取方法。现有方法不能完全表达局部纹理特征,关系节点数多,对噪声等干扰的鲁棒性不强。本发明方法将输入的人脸图像预处理后得到标准单个人脸灰度图像,将待编码像素作为中心像素,以中心像素作为同心的内圆和外圆的圆心,在内圆和外圆的圆周上选取四个像素点作为图节点,将八个图节点以有向线连接,围合成四角星形局部图结构,比较每段有向线两端图节点对应的像素值的大小,根据比较结果进行编码,转换为十进制的编码值;遍历所有像素,得到该人脸的局部图结构编码特征图。本文发明在光照、姿态、表情和遮挡等各种干扰下,所提取的特征表现出很好的鲁棒性,对于人脸识别有实际应用价值。
-
公开(公告)号:CN111259940B
公开(公告)日:2023-04-07
申请号:CN202010024750.8
申请日:2020-01-10
Applicant: 杭州电子科技大学
IPC: G06V10/764 , G06V10/82 , G06V10/774 , G06N3/0455 , G06N3/0464 , G06N3/045 , G06N3/084
Abstract: 本发明公开了一种基于空间注意力地图的目标检测方法,包括:将测试图像输入预先训练好的Faster RCNN网络,自下向上逐层进行特征提取、自上向下逐层进行高层语义信息传播,得到目标的空间特征信息和特征梯度信息;对目标的空间特征信息和特征梯度信息进行加权得到目标高层语义信息引导的注意力地图;对目标空间特征信息进行数据预处理,得到目标感兴趣区域图;叠加目标感兴趣区域图和注意力地图,得到目标注意力地图;将目标注意力地图与通道特征权重进行计算得到多通道空间注意力地图;将多通道空间注意力地图与目标空间特征信息结合得到新的目标空间特征信息;将新的目标空间特征信息联合RPN网络的目标候选框提取出进行目标分类和边界框回归的特征。
-
-
-
-
-
-
-
-
-