-
公开(公告)号:CN103065316A
公开(公告)日:2013-04-24
申请号:CN201210582688.X
申请日:2012-12-28
Applicant: 杭州电子科技大学
IPC: G06T7/00
Abstract: 本发明公开了一种基于巴氏相似性的目标视觉感知方法,包括以下步骤:(1)根据输入的视频图像序列,通过手动方式对场景的感知区域进行设置,并在视频图像序列中对感知区域进行标记;(2)建立感知区域当前直方图模型,建立感知区域自适应背景直方图模型;(3)利用巴氏相似性计算公式,结合感知区域当前直方图模型和感知区域自适应背景直方图模型,计算感知区域直方图模型巴氏相似性系数;(4)用算得的巴氏相似性系数进行巴氏相似性目标视觉感知;(5)对感知区域进行自适应背景更新。本发明方法不仅适用于视频监控场合,也适用于仅有静态图像传送的监控场合,更加符合人类对目标的视觉感知方式,有着广泛的应用前景。
-
公开(公告)号:CN103020993A
公开(公告)日:2013-04-03
申请号:CN201210497332.6
申请日:2012-11-28
Applicant: 杭州电子科技大学
IPC: G06T7/40
Abstract: 本发明涉及一种双通道颜色对比度融合的视觉显著性检测方法。本发明方法首先提取输入图像的高斯尺度图像,将每层高斯尺度图像划分为多个互不相交且区域面积近似相等的超像素区域。其次采用彩色变换方法,分别提取每层高斯尺度图像在CIELAB空间的三个彩色分量图,基于上述三个彩色分量图为每个像素分配基于CIELAB空间的颜色显著性值。然后采用彩色变换方法,分别提取每层高斯尺度图像在RGB空间的三个彩色分量图,基于这三个彩色分量图为每个像素分配基于RGB空间的颜色显著性值。最后将两个空间的颜色显著性值融合得到输入图像中每个像素的最终显著性值。本发明可有效克服单一颜色通道检测的局限,提高显著性检测的鲁棒性。
-
公开(公告)号:CN101976338B
公开(公告)日:2013-03-13
申请号:CN201010524357.1
申请日:2010-10-29
Applicant: 杭州电子科技大学
IPC: G06K9/46
Abstract: 本发明涉及一种基于梯度方向直方图的判决式视觉显著性检测方法。目前的方法分辨率低,提取的物体轮廓不全,计算复杂度高。本发明方法首先采用彩色变换方法,提取原始图像在CIELAB空间彩色分量图;其次利用中央-周围计算结构中的取样点统计分量图中每个像素点的局部梯度方向直方图;然后计算每个像素点的局部显著判决矢量和全局显著判决矢量;最后采用线性加权方法获得最终的显著判决结果。本发明方法在视觉显著区域具有更强的响应,而在其他非显著区域有更好的抑制能力。
-
公开(公告)号:CN102920459A
公开(公告)日:2013-02-13
申请号:CN201210363866.X
申请日:2012-09-26
Applicant: 杭州电子科技大学
IPC: A61B5/107
Abstract: 本发明公开了一种基于三维点云的人体围度参数测量方法,现有的方法由于人体自身遮挡、采集信息不完备及扫描死角等原因使得一些位于人体两侧的点云数据缺失。本发明首先将所有人体三维点云数据拼合至同一个三维坐标系下,将指定高度的三维人体剖面点云数据转化为二维平面点集,通过对二维平面点集上的剖面点云数据进行水平投影分析,自动完成剖面点云数据的分类。其次分析各类数据缺失部分点所在位置,获取待拟合点云数据。然后选择二次曲线参数方程,并采用最小二乘法拟合点云数据,利用获得的拟合曲线完成缺口补点的工作。最后计算各个分类数据所对应身体部位的围度。本发明能够使人体身体围度的测量结果更加接近真实值。
-
公开(公告)号:CN102903104A
公开(公告)日:2013-01-30
申请号:CN201210337838.0
申请日:2012-09-13
Applicant: 杭州电子科技大学
IPC: G06T7/00
Abstract: 本发明公开了一种基于减法聚类的快速图像分割方法。本发明首先将所有像素点归一化到一个超立方体中,对等待聚类的所有像素进行等间隔均匀采样后重组;在重组的像素中,计算采样像素点两两之间的密度权值矩阵及其逆阵以及采样像素与剩余未采样像素之间的密度权值矩阵。然后计算逼近的未采样像素两两之间的密度权值矩阵和计算所有像素点的密度值。最后计算所有像素的最大密度值并获得聚类中心,为找出新的聚类中心,需对每个像素点的密度值进行衰减,该过程不断迭代,根据终止条件停止迭代。本发明与经典的减法聚类方法相比,本发明在不影响聚类结果的情况下,对于较大规模数据集,大大提高减法聚类方法的实时性。
-
公开(公告)号:CN119600191A
公开(公告)日:2025-03-11
申请号:CN202411592527.8
申请日:2024-11-08
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种基于人体形状一致性的可驱动单视点多人重建方法。本发明在体渲染的基础上引入通用特征体素网格和实例相关的实例特征体素网格以及一个多目标拟合框架,实现在短时间内同时获得场景内的多个可驱动三维数字人。通用特征体素网格拟合不同人体之间共性的形状和纹理特征,实例相关的实例特征体素网格拟合个体之间的体态和纹理差异。利用表面回归模块和先验的人体形状信息界定采样点和人体表面的包含关系,通过完整性对体内外点的体密度进行额外约束。通过融合通用体态特征和实例相关的细节形状和纹理特征,结合人体形状先验引入完整性损失实现对人体形状的有效约束,提高由于可见性或者采样频率不足导致的人体形状欠约束问题。
-
公开(公告)号:CN118015264A
公开(公告)日:2024-05-10
申请号:CN202311760160.1
申请日:2023-12-20
Applicant: 杭州电子科技大学
IPC: G06V10/26 , G06V10/764 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种基于脑电信号的视觉目标语义定位图生成方法。本发明在脑电信号的指导下生成一个语义定位特征图,通过对脑电信号去提取原始的位置掩码特征,其中具有时序的特征,然后对脑电信号进行一个分类训练,我们得到精度更高的语义分类特征,我们对得到的图片语义分类特征生成一个嵌入,把提取的原始的位置掩码特征和从脑电信号中得到的语义分类特征进行特征融合放入生成模型进行集成,把这两个条件投射在生成模型中,进行训练以此达到通过脑电信号指导来实现生成语义图像,并且证明从脑电信号中可以提取图像中物体的定位信息,在生成图片时,图片物体在图片对应位置上的定位,对后续进行脑电信号指导图片重建有很强的指导作用。
-
公开(公告)号:CN117750200A
公开(公告)日:2024-03-22
申请号:CN202311759592.0
申请日:2023-12-20
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种基于子孔径位姿优化的无监督光场视频防抖方法。本发明利用光场图像子孔径丰富的特征表示,同时以中心子孔径图像估计的相机位姿为基准,设计基于子孔径位姿联合优化的无监督损失函数,使用子孔径图像学习场景高维深度特征与边缘子孔径相对于中心子孔径的偏移矩阵进行联合优化来保证子孔径稳定运动的一致性,从而实现子孔径画面运动一致的光场视频防抖;无监督的学习方法解决了视频防抖算法依赖于高质量数据集的问题。
-
公开(公告)号:CN117456246A
公开(公告)日:2024-01-26
申请号:CN202311409560.8
申请日:2023-10-27
Applicant: 杭州电子科技大学
IPC: G06V10/764 , G06V10/774 , G06V10/74 , G06V10/82 , G06V10/40
Abstract: 本发明公开了基于ViT的类内、类间相似度的细粒度图像分类方法及系统。细粒度图像分类系统包括特征提取模块、相似性学习模块和主分类器网络。本发明利用特征提取模块有效挖掘判别块的空间上下文信息和多尺度融合信息,利用同类图像之间的相似性训练相似性学习模块,给判别性区域分配较高的权重,给噪声分配较低的权重,将相似度权重计算模块输出的权重作用于主分类器网络的分类损失,有效提取图像特征并提高了识别的准确度。
-
公开(公告)号:CN117455772A
公开(公告)日:2024-01-26
申请号:CN202311409579.2
申请日:2023-10-27
Applicant: 杭州电子科技大学
IPC: G06T3/4053 , G06T3/4046 , G06V10/42 , G06N3/0464 , G06T5/50
Abstract: 本发明公开了一种基于空间和角度信息融合的光场角度域超分辨率方法。本发明步骤:S1:构建光场子孔径图像训练数据集、测试数据集;S2:构建光场角度超分辨率深度神经网络模型;S3:为光场角度超分辨率网络模型设计损失函数;S4:利用训练好的光场角度超分辨率深度神经网络模型,在测试数据集上进行光场角度超分辨率任务测试。本发明提出的空间‑角度信息融合模块通过自注意力机制在光场子孔径图像的全局范围内提取到更强的空间特征,利用局部隐式函数建立更具体的角度依赖关系,再通过融合产生新的空间‑角度特征,具有更强的信息表达能力。本发明构建的模型在稀疏视角采样下的光场角度超分辨率任务中能够重建出更精准的结果。
-
-
-
-
-
-
-
-
-