-
公开(公告)号:CN115019124A
公开(公告)日:2022-09-06
申请号:CN202210562150.6
申请日:2022-05-23
Applicant: 杭州电子科技大学
IPC: G06V10/774 , G06V10/764 , G06V10/82 , G06V40/16 , G06V20/40 , G06N3/04 , G06N3/08
Abstract: 本发明公开了一种基于生成对抗网络的微表情判别模型训练方法。包括:S1使用生成图像和目标图像的L1范数作为像素重建的第一损失函数,对生成器进行第一预训练;S2使用分类结果的交叉熵损失、增强标签的交叉熵损失的总和作为第二损失函数,对判别器进行第二预训练;S3将经过第一预训练的生成器、第二预训练的判别器进行连接,以生成对抗网络模型;S4基于第一损失函数、第二损失函数,并引入对抗损失函数,对对抗网络模型进行联合训练,以得到训练后的微表情判别模型,在对抗损失函数中,生成器以对抗损失函数最小化为目标,判别器以对抗损失函数最大化为目标。本发明采用预训练和联合训练的方式生成微表情判别模型,该微表情判别模型性能更好。
-
公开(公告)号:CN106056082A
公开(公告)日:2016-10-26
申请号:CN201610377217.3
申请日:2016-05-31
Applicant: 杭州电子科技大学
IPC: G06K9/00
CPC classification number: G06K9/00718
Abstract: 本发明涉及一种基于稀疏低秩编码的视频动作识别方法。本发明对给定的视频集合进行如下操作:1)对每个视频从空间和时间两个维度使用立方体检测和描述视频动作的兴趣点,并形成相应的局部时空特征;2)利用稀疏低秩矩阵分解对局部时空特征做编码,形成对应兴趣点的稀疏低秩编码表示,并用改进的平均池化技术获得全局时空特征向量作为视频的数据表示;3)对所有视频样本实施上述步骤获得相应的时空数据表示,并分为训练样本和测试样本,再利用支持向量机建立分类模型用于识别测试样本的视频动作。本发明能够从局部和全局角度利用视频兴趣点的时空特征有力刻画视频动作,并通过稀疏低秩编码获得更优的视频数据表示,提高了视频动作识别的准确率。
-
公开(公告)号:CN119807853A
公开(公告)日:2025-04-11
申请号:CN202510095407.5
申请日:2025-01-21
Applicant: 杭州电子科技大学
IPC: G06F18/241 , A61B5/346 , A61B5/347 , A61B5/00 , G06F18/2131 , G06F18/25 , G06N3/045
Abstract: 本发明涉及计算机视觉深度学习和医学数据处理技术领域,具体是一种基于RNN与Mamba序列模型的ECG数据分类方法,首先,对原始ECG数据使用Encoder编码器提取其初步特征,并加入位置编码。接着,一方面,基于ECG数据的时序性,通过RNN与Mamba模块提取其时域特征;另一方面,基于ECG数据波的特性,从ECG特征中通过连续小波变换CWT与离散傅里叶变换DFT获得其频率‑时间信息与幅值‑频率这两种频域特征;之后将这两种频域特征加入到时域特征中,以实现对时域特征的增强效果。之后,使用一个残差网络ResNetECG对增强后的时域特征进行分类。本发明提高了分类结果的准确率。
-
公开(公告)号:CN111325131B
公开(公告)日:2023-06-23
申请号:CN202010092959.8
申请日:2020-02-14
Applicant: 杭州电子科技大学
IPC: G06V40/16 , G06V10/774 , G06V10/764 , G06V10/82 , G06N3/0464 , G06N3/09
Abstract: 本发明公开了一种基于自适应去除过渡帧深度网络的微表情检测方法。本发明包括网络构造、网络训练和微表情检测,其中所述的网络训练中首先对原始视频进行数据预处理;然后使用自适应去除过渡帧方法去除过渡帧;最后将去除了过渡帧的微表情帧和中性帧样本输入MesNet网络进行训练。本发明所构建的MesNet本质是一个二分类网络,检测微表情帧不依赖帧时序关系,因此MesNet不仅可以从微表情数据库完整视频中检测微表情帧,也可以从给定的任意帧集合中检测微表情帧,还可以判断给定的单独一帧是否为微表情帧。
-
公开(公告)号:CN117474812A
公开(公告)日:2024-01-30
申请号:CN202311431956.2
申请日:2023-10-31
Applicant: 杭州电子科技大学
IPC: G06T5/90 , G06T5/60 , G06V10/44 , G06V10/77 , G06V10/82 , G06T5/70 , G06T5/73 , G06N3/0464 , G06N3/048 , G06N3/084
Abstract: 本发明提供了一种基于深度学习的单人图像去除光照影响的方法,属于深度学习图像恢复领域,所述的方法中模型总体参考的UNet网络、编码器解码器,其中的具体模块包括先将图像进行卷积操作,实现去除冗余信息并提取浅层特征,之后再进行深度计算光照信息并去除,在深度计算光照信息时使用注意力机制,最后使用逆卷积操作恢复图像。本发明对于人物图像在不同灯光强度和角度下都能够恢复到较好的品质,且对于人物识别,目标追踪等方向能有一定的增益。
-
公开(公告)号:CN115019366A
公开(公告)日:2022-09-06
申请号:CN202210587464.1
申请日:2022-05-25
Applicant: 杭州电子科技大学
IPC: G06V40/16 , G06V10/82 , G06V10/764 , G06V10/774 , G06N3/04 , G06N3/08
Abstract: 本发明涉及一种基于神经过程的自动微表情分类模型训练方法,包括如下步骤:抽取若干微表情图像作为微表情图像节点,并分为上下文节点和目标节点;对微表情图像节点进行特征提取,得到微表情特征信息;将上下文节点的微表情特征信息和真实标签输入编码器计算潜在特征信息,聚合潜在特征信息得到全局潜在变量;使用全局潜在变量在解码器中计算目标节点的表情预测标签;设定联合优化目标,使联合优化目标最小化。本发明的方法使用了神经过程,神经过程结合了神经网络和随机过程,能学习在函数上的分布,也能够根据上下文的观察估计其预测的不确定性。
-
公开(公告)号:CN109800771A
公开(公告)日:2019-05-24
申请号:CN201910089341.3
申请日:2019-01-30
Applicant: 杭州电子科技大学
Abstract: 本发明公开一种混合时空平面局部二值模式的自发微表情定位方法。本发明根据自发微表情视频中连续帧的相关性,通过精细匹配实现了像素级人脸区域对齐,从而对头部偏移等干扰具有较强的抗干扰能力。同时在空间轴平面提取扇形区域特征,并在时间轴提取去冗余的线性特征,既减少了特征点冗余计算,又通过非线性特征融合的方式结合时空特征,形成更完备的特征表示,因此能更加鲁棒地表示自发微表情,提高了自发微表情视频中自发微表情定位精确率。
-
公开(公告)号:CN106056082B
公开(公告)日:2019-03-08
申请号:CN201610377217.3
申请日:2016-05-31
Applicant: 杭州电子科技大学
IPC: G06K9/00
Abstract: 本发明涉及一种基于稀疏低秩编码的视频动作识别方法。本发明对给定的视频集合进行如下操作:1)对每个视频从空间和时间两个维度使用立方体检测和描述视频动作的兴趣点,并形成相应的局部时空特征;2)利用稀疏低秩矩阵分解对局部时空特征做编码,形成对应兴趣点的稀疏低秩编码表示,并用改进的平均池化技术获得全局时空特征向量作为视频的数据表示;3)对所有视频样本实施上述步骤获得相应的时空数据表示,并分为训练样本和测试样本,再利用支持向量机建立分类模型用于识别测试样本的视频动作。本发明能够从局部和全局角度利用视频兴趣点的时空特征有力刻画视频动作,并通过稀疏低秩编码获得更优的视频数据表示,提高了视频动作识别的准确率。
-
公开(公告)号:CN117611633A
公开(公告)日:2024-02-27
申请号:CN202311600206.3
申请日:2023-11-28
Applicant: 杭州电子科技大学
IPC: G06T7/246 , G06V10/764 , G06V10/766 , G06V10/77 , G06V10/80 , G06V10/82 , G06N3/045 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种基于多尺度特征融合与增强的多目标跟踪方法及系统,属于目标跟踪技术领域。该方法中通过每次输入相邻的两个视频帧进入共享参数权重的主干网络进行特征提取,然后经过多尺度特征融合进行特征更精细的表达后,通过视觉特征增强同时获取目标局部以及全局依赖,最后通过预测部分的目标分类分支、ID确认分支以及框回归分支对目标进行不同目标的区分以及同一目标的关联。本发明通过对多尺度特征融合与增强,提升了目标跟踪的性能,实现了较好的目标跟踪效果。
-
公开(公告)号:CN115222864A
公开(公告)日:2022-10-21
申请号:CN202210877210.3
申请日:2022-07-25
Applicant: 杭州电子科技大学
Inventor: 计忠平
Abstract: 本发明公开了一种基于单张照片的目标立体化智能生成方法,包括如下步骤:S1、构建数据集,包括单个人物模型及由多个人物构成的场景,获取多个视角下带纹理的渲染图以及相应视角下的原始高度图;S2、构建特征提取网络模型,所述特征提取网络模型包括结构特征提取模块和细节特征提取模块,输入原始高度图通过结构特征提取模块得到结构高度图,通过细节特征提取模块得到细节高度图;S3、将得到的结构高度图和细节高度图通过加权融合得到完整的目标立体化形象模型;S4、目标立体化形象模型作可选的后处理,进行特征提升。该方法降低该过程对设备和专业技能的依赖和要求,降低每个互联网用户进行虚拟内容生产制作的门槛,使其变得像拍照那样的便捷。
-
-
-
-
-
-
-
-
-