-
公开(公告)号:CN102902962A
公开(公告)日:2013-01-30
申请号:CN201210362840.3
申请日:2012-09-26
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种基于尺度不变特征转换特征向量的前方车辆检测方法,现有的方法鲁棒性不好,容易受到背景、光照条件、阴霾等影响。本发明首先在输入图像中建立感兴趣区域,利用图像尺度不变特征转换特征向量检测方法,提取输入图像的感兴趣区域内的尺度不变特征转换特征向量。其次对尺度不变特征转换特征向量进行对称编码和匹配。然后对匹配点点对进行进一步聚类筛选,建立匹配点点对集合。最后利用匹配点点对集合进一步筛选匹配点点对;并在在输入原图中分别标记对称点和对称轴,完成前方车辆检测方法。本发明方法使用尺度不变特征转换特征更具有良好的鲁棒性,提高了车辆检测的准确度,并具有良好的识别效果,且易于实现。
-
公开(公告)号:CN102103750A
公开(公告)日:2011-06-22
申请号:CN201110002235.0
申请日:2011-01-07
Applicant: 杭州电子科技大学
Abstract: 本发明涉及一种基于韦伯定理和中央-周围假设的视觉显著性检测方法。目前的方法分辨率低,提取的物体轮廓不全,计算复杂度高。本发明方法首先采用彩色变换方法,提取原始图像在CIELAB空间彩色分量图;其次根据韦伯定理计算l彩色分量图、a彩色分量图和b彩色分量图中每个像素点的水平梯度差励值和垂直梯度差励值;然后根据水平梯度差励值和垂直梯度差励值计算任意梯度方向的差励值,并统计差励直方图;最后每个像素点建立其局部显著性激励矢量,得到局部显著性判决值和全局显著性激励值,根据前两者计算显著性判决值。本发明方法不仅可获得与输入图像相同分辨率的视觉显著图,并且在显著性区域具有更强的响应。
-
公开(公告)号:CN114170316B
公开(公告)日:2025-05-06
申请号:CN202111528516.X
申请日:2021-12-13
Applicant: 杭州电子科技大学
IPC: G06T7/73 , G06T9/00 , G06N3/0455 , G06N3/0464
Abstract: 本发明公开了一种基于环绕视点的位姿估计优化方法。本发明将稀疏视点图片与对应粗略相机位姿作为输入,利用编解码神经网络提取出图片序列的不同尺度的特征,将不同尺度的特征进行转置卷积并两两相乘,按照粗略相机位姿映射并融合为3D特征体素,通过3D卷积网络提取特征点空间坐标、密度与颜色信息作为输入进入MLP网络,回归得到位姿偏移误差,更新对照视点位姿并回归主视点坐标系。本发明对输入的多视点图片进行预处理,利用神经网络,基于多视图,将特征匹配与位姿优化两个任务集成起来,得到了精确的相机位姿。本发明提出的于环绕视图的位姿估计优化方法,提高了位姿估计的精度,大大提升了三维重建的质量。
-
公开(公告)号:CN119477697A
公开(公告)日:2025-02-18
申请号:CN202411606722.1
申请日:2024-11-11
Applicant: 杭州电子科技大学
IPC: G06T3/4053 , G06T3/4046 , G06N3/0464 , G06N3/0455 , G06N3/08
Abstract: 本发明公开了基于局部神经几何学习的光场空‑角连续域超分辨率方法,属于深度学习与计算机视觉领域,包括S1、获取光场极几何图像,并构建神经网络模型;S2、将光场图像的子孔径图像阵列送入空‑角感知几何编码模块,得到空‑角感知的潜在几何编码;S3、将空‑角感知的潜在几何编码送入局部神经几何学习模块,得到空‑角连续域潜在几何编码;S4、将空‑角连续域潜在几何编码送入扩展渲染模块,得到光场图像;S5、设置损失函数;S6、利用神经网络模型,进行光场‑空角连续域超分辨率任务测试;本发明提供的基于局部神经几何学习的光场空‑角连续域超分辨率方法,可实现光场图像空间维度和角度维度同时且任意尺度的超分辨率。
-
公开(公告)号:CN112907641B
公开(公告)日:2024-04-09
申请号:CN202110151211.5
申请日:2021-02-03
Applicant: 杭州电子科技大学
IPC: G06T7/33 , G06N3/0464 , G06N3/08 , G06T7/10
Abstract: 本发明公开了一种基于细节信息保持的多视点视图深度估计方法。本方法首先利用U型神经网络提取出图片序列在不同尺度的特征,在同一尺度的特征中,分为两个分支:一个分支进行分割操作,得到高质量细节保持的目标分割图;一个分支进行为后续的深度估计进行特征提取。将不同尺度的特征与同尺度下的分割图Fs相乘,按照单应矩阵映射融合为3D特征体素,最后通过回归得到深度图。将该深度图与对应大小的Fs逐像素相乘,通过由粗到细不同尺度的优化,输出最终的深度图,其中只有目标的深度信息有效。本发明提出的基于细节信息保持的多视点视图深度估计方法,避免了重建中背景对目标的影响,提高了深度估计的精度。
-
公开(公告)号:CN112308918B
公开(公告)日:2024-03-29
申请号:CN202011151965.2
申请日:2020-10-26
Applicant: 杭州电子科技大学
IPC: G06T7/73 , G06T7/77 , G06N3/045 , G06N3/0464 , G06N3/048 , G06N3/084 , G06N3/088 , G06F7/523 , G06F17/16
Abstract: 本发明公开了一种基于位姿解耦估计的无监督单目视觉里程计方法。本发明包括如下步骤:S1:准备KITTI数据集并进行预处理;S2:基于位姿解耦估计公式,设计位姿解耦估计网络;S3:设计基于位姿解耦估计的无监督单目视觉里程计;S4:定义基于位姿解耦估计的无监督单目视觉里程计的损失函数;S5:使用KITTI数据集中的训练集训练基于位姿解耦估计的无监督单目视觉里程计。本发明从相机位姿估计的级联解耦结构设计开始,以实现精确的位姿估计;并将其扩展到无监督单目视觉里程计,实现相邻帧间相机位姿的旋转矩阵和平移矩阵解耦估计;为提高旋转矩阵估计的鲁棒性,旋转矩阵采用单位四元数表示;最终在KITTI数据库上完成训练和测评。
-
公开(公告)号:CN116311268A
公开(公告)日:2023-06-23
申请号:CN202310198895.3
申请日:2023-03-03
Applicant: 杭州电子科技大学
IPC: G06V30/148 , G06V30/19 , G06V30/18
Abstract: 本发明公开了一种基于SwinTransformer的小篆识别方法。本发明选用小篆图片及其对应的繁体字图片作为模型的输入,经过预处理操作后的小篆图片首先被送入到基于SwinTransformer搭建的编码器E中,编码得到图片全局特征;随后网络采用一种并行三分支结构:繁体图片生成分支、小篆图片生成分支、小篆预测分支。本发明使用Swin‑Transformer模块取代传统识别模型编码器,Swin‑Transformer的W‑MSA机制以及SW‑MSA机制提高了图片全局特征提取能力,使得模块能够完成小篆识别这样的高难度任务,并且能够实现将小篆图片转换为繁体字图片的功能。
-
公开(公告)号:CN111833390B
公开(公告)日:2023-06-20
申请号:CN202010581570.X
申请日:2020-06-23
Applicant: 杭州电子科技大学
IPC: G06T7/50 , G06N3/0464 , G06N3/048 , G06N3/088
Abstract: 本发明公开了一种基于无监督深度学习的光场深度估计方法。本发明设计了无监督损失函数;同时从光场图像中提取一组3×3排列的子光圈图像作为光场深度估计网络的输入,输出中心子光圈图像的视差图,实现端到端的训练。步骤S1.准备光场数据集,制作训练集和测试集;步骤S2.搭建无监督光场深度估计网络;步骤S3.设计无监督光场深度估计损失函数;步骤S4.使用训练集训练无监督光场深度估计网络;本发明通过使用本发明自主搭建的网络结构以及损失函数,在海德堡图像处理实验室提供的4D光场数据集评测网站上,可以获得优于其它无监督深度估计方法的精度。
-
公开(公告)号:CN114299512A
公开(公告)日:2022-04-08
申请号:CN202111617422.X
申请日:2021-12-27
Applicant: 杭州电子科技大学
IPC: G06V30/244 , G06N3/04 , G06N3/08
Abstract: 本发明公开了一种基于汉字字根结构的零样本小篆识别方法。本发明首先选取文字标签匹配的小篆与繁体字集图片作为训练集和测试集;然后构建小篆识别模型,该模型包括一个编码器和两个并行子网络分支;编码器将小篆图片解析为高维特征向量;两个并行子网络分支包括“小篆‑繁体转换生成网络”分支以及“基于注意力的汉字字根结构识别网络”分支;分支一包括两个解码器,根据高维特征向量得到对应的繁体字图片以及小篆图片;分支二根据高维特征向量得到小篆的汉字字根结构向量,从而识别小篆。本发明将“小篆识别问题”转化为字根结构更为规整的“繁体字识别问题”,降低了小篆识别难度,为零样本小篆识别任务提供新思路。
-
公开(公告)号:CN114299011A
公开(公告)日:2022-04-08
申请号:CN202111617324.6
申请日:2021-12-27
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种基于深度学习的遥感目标四边形框快速检测方法,本发明方法预测结果精准,对目标进行四边形框的回归,精准描述了目标的轮廓;对于图像特征的提取,使用了融合多层特征的深度神经网络,有利与小目标众多的遥感场景的目标检测;优化训练过程,在正负样本分配的过程中采用SimOTA策略,提高了模型对不同大小目标的均衡预测能力;对结果进行阈值过滤,筛选掉干扰目标,提高识别精度;检测速度快,达到了实时检测的水平,有实际应用的价值。
-
-
-
-
-
-
-
-
-