-
公开(公告)号:CN116824656A
公开(公告)日:2023-09-29
申请号:CN202310062839.7
申请日:2023-01-16
Applicant: 杭州电子科技大学
Abstract: 本发明公开了基于双流VisionTransformer的微表情序列识别方法;首先获取连续时间内的多张微表情图像,对微表情序列图像进行预处理,得到预处理后的微表情序列图像和光流图像;通过TS‑ViT模块,获得每张光流图像和对应微表情图像的融合特征;再通过时间注意力机制模块学习连续帧的时空特征,然后进行特征融合得到新的特征向量序列;将新的特征向量序列输入到Bi‑LSTM学习微表情序列时间维度上的前向和后向的依赖关系,最后输出微表情识别结果。本发明解决了微表情数据集数据量偏少导致网络训练欠拟合的问题。
-
公开(公告)号:CN116524326A
公开(公告)日:2023-08-01
申请号:CN202310522697.8
申请日:2023-05-10
Applicant: 杭州电子科技大学
IPC: G06V10/82 , G06V10/26 , G06V10/774 , G06N3/0895 , G06N3/096
Abstract: 本发明公开了一种基于语义分割和自训练的夜间图片领域自适应方法。本发明包括步骤1:源域图像有监督指导学生模型;步骤2:在源域标签中进行稀有类抽样;步骤3:源域渐进域混合目标域白天和目标域黑夜;步骤4:源域和目标域在输出级别对齐;步骤5:集成不同因素教师知识以迭代学生模型;步骤6:重复步骤1~步骤5的若干次进行迭代。本发明缓解了传统的自训练中存在的噪声信号监督造成的确认偏差问题,利用多个教师模型专门对学生模型指导,使得知识迁移更加平滑;引入教师知识‑学生反馈机制提高模型抗干扰能力,闭环系统训练更鲁棒的学生模型。本发明使用轻量简便,不需要额外的风格迁移网络。
-
公开(公告)号:CN116152070A
公开(公告)日:2023-05-23
申请号:CN202310214716.0
申请日:2023-03-08
Applicant: 杭州电子科技大学
IPC: G06T3/40 , G06N3/0464
Abstract: 本发明公开了一种基于深度学习的光场视频时间‑角度超分辨率网络。本发明步骤如下:1、假设输入为低角度分辨率宏像素形式的光场图像以合成中间帧低角度分辨率的宏像素形式的光场图像为目标,设计时间超分辨率模块;2、对时间超分辨率模块的输出结果进行角度超分辨率运算,最终得到角度超分辨率运算后的宏像素形式的光场图像本发明设计了一种角度独立的通道注意力机制代替光流预测模块来更好地完成前后帧像素的过滤与融合。
-
公开(公告)号:CN116129089A
公开(公告)日:2023-05-16
申请号:CN202310198898.7
申请日:2023-03-03
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种基于计算机视觉的颅脑手术虚拟导航系统。本发明包括如下步骤:1:获取患者的面部三维可见光点云数据;2:获取患者的面部三维CT点云数据;3:采用可见光和CT点云配准方法,估计旋转和平移矩阵;4:基于棋盘格检测的颅钻追踪。本发明利用VTK框架和CT数据进行人的头颅的三维重建,然后获取模型脸部数据,再使用RGBD相机进行人脸识别,获取人脸点云数据,利用三维重建的的人脸数据与人脸识别获取的点云数据进行配准,解决病灶位置的坐标转换问题。针对颅钻在手术过程中的实时检测和导航,采用将棋盘格镶嵌在颅钻上,利用RGBD对其进行定位和实时追踪,以便准确的切除肿瘤从而完成开颅手术。本发明操作简单、评测精确、性能优良。
-
公开(公告)号:CN116012229A
公开(公告)日:2023-04-25
申请号:CN202310059328.X
申请日:2023-01-20
Applicant: 杭州电子科技大学
IPC: G06T3/40 , G06V10/77 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种基于隐式对极几何函数的光场连续角度域表示方法。首先构建光场对极几何图像数据集;然后构建整体光场角度超分辨率网络,包括空间‑角度特征提取网络和局部隐式对极几何函数超分网络;再为整体光场角度超分辨率网络设计损失函数;为整体光场角度超分辨率网络定义一种水平方向与垂直方向分治的训练策略,进行水平‑垂直混合训练;最后利用训练好的整体光场角度超分辨率网络,采用三阶段拆分‑组合策略实现光场角度超分辨率。本发明提出了一种分治的学习机制以保证训练的有效性与光场的几何一致性。本发明的方法可以达到相似或更好的效果,可以实现更高倍率的角度超分辨率,并且高倍率仍然有很好的重建效果。
-
公开(公告)号:CN113436254B
公开(公告)日:2022-07-05
申请号:CN202110725433.3
申请日:2021-06-29
Applicant: 杭州电子科技大学 , 浙江华立智能装备股份有限公司
Abstract: 本发明公开了一种级联解耦的位姿估计方法。首先基于位姿解耦公式,设计级联解耦位姿估计网络;然后设计基于级联解耦位姿估计的迭代网络;最后定义级联解耦位姿估计网络和基于级联解耦位姿估计的迭代网络的损失函数。本发明从相机位姿估计的级联解耦结构设计开始,首先提出了一种位姿级联解耦估计网络和位姿级联解耦优化网络,之后又提出了一种基于级联解耦位姿估计的迭代网络,以实现更高精度的位姿估计;最后将其扩展到无监督单目视觉里程计,实现相邻帧间相机位姿的旋转矩阵和平移矩阵解耦估计,得到更高精度的结果。
-
公开(公告)号:CN112906539A
公开(公告)日:2021-06-04
申请号:CN202110172061.6
申请日:2021-02-08
Applicant: 杭州电子科技大学
Abstract: 本发明公开一种基于EEG数据的物体识别方法。本发明首先利用数据增强、提取技术,对数据进行扩容。然后随机地把数据分成等量的五个部分,进行5折的训练,再然后用ResBlock作为基础结构,构建全新的二维卷积神经网络,把网络的前三层用空洞卷积去代替普通的卷积,利用PReLU作为网络的激活函数,利用Focalloss作为模型的损失函数。使用Perceive实验室在2017年放出的EEG数据物体识别数据集进行模型训练。本发明数据增强可以使得小数据集的数据得到充分的利用。加之采用较深的网络模型,较少的网络参数,尽管数据集中的EEG数据数量较少,也可以尽可能地学习到EEG数据中的能用来识别的特征,因此可以高效、准确地实现对物体的识别任务。
-
公开(公告)号:CN111833390A
公开(公告)日:2020-10-27
申请号:CN202010581570.X
申请日:2020-06-23
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种基于无监督深度学习的光场深度估计方法。本发明设计了无监督损失函数;同时从光场图像中提取一组3×3排列的子光圈图像作为光场深度估计网络的输入,输出中心子光圈图像的视差图,实现端到端的训练。步骤S1.准备光场数据集,制作训练集和测试集;步骤S2.搭建无监督光场深度估计网络;步骤S3.设计无监督光场深度估计损失函数;步骤S4.使用训练集训练无监督光场深度估计网络;本发明通过使用本发明自主搭建的网络结构以及损失函数,在海德堡图像处理实验室提供的4D光场数据集评测网站上,可以获得优于其它无监督深度估计方法的精度。
-
公开(公告)号:CN110163246A
公开(公告)日:2019-08-23
申请号:CN201910276356.0
申请日:2019-04-08
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种基于卷积神经网络的单目光场图像无监督深度估计方法。本发明先利用公开的大型光场图像数据集作为训练集,通过数据增强、数据扩充使训练集样本趋于平衡。构建改进的ResNet50网络模型,使用编码器和解码器分别提取模型的高级和低级的特征,再通过密集差结构将编码器和解码器的结果融合,同时另外构建了一个超分辨率遮挡检测网络,能够使用深度学习准确的预测出各个视角之间的遮挡问题;基于光场图像深度估计任务的目标函数是多损失函数,通过预先定义好的网络模型对预处理后的图像进行训练,最后在测试集上对网络模型进行泛化评估。本发明对复杂场景的光场图像预处理效果显著,实现了更精确光场图像无监督深度估计的效果。
-
公开(公告)号:CN110163108A
公开(公告)日:2019-08-23
申请号:CN201910329213.1
申请日:2019-04-23
Applicant: 杭州电子科技大学
Abstract: 本发明公开了基于双路径特征融合网络的鲁棒声呐目标检测方法。传统图像处理方法使用图像分割的方法将背景和目标区分;本发明如下:一、搭建双路径特征融合网络。二、对步骤1所得的双路径特征融合网络进行训练。三、声呐图像的生成和特征提取。四、结合默认框进行声呐图像目标框的分类和检测。本发明将深度学习技术融入到目标检测中,将声呐数据生成的声呐图像输入网络模型中,在模型中一次性完成特征提取、目标检测、目标分类,从而大大提高检测速度。本发明可以提取到更多的深层次特征,从根本上优化了目标分类,回归。本发明采用多尺度密集相连,以融合多层次特征,提升中小目标检测效果。
-
-
-
-
-
-
-
-
-