一种基于生成对抗网络的微表情判别模型训练方法

    公开(公告)号:CN115019124A

    公开(公告)日:2022-09-06

    申请号:CN202210562150.6

    申请日:2022-05-23

    Abstract: 本发明公开了一种基于生成对抗网络的微表情判别模型训练方法。包括:S1使用生成图像和目标图像的L1范数作为像素重建的第一损失函数,对生成器进行第一预训练;S2使用分类结果的交叉熵损失、增强标签的交叉熵损失的总和作为第二损失函数,对判别器进行第二预训练;S3将经过第一预训练的生成器、第二预训练的判别器进行连接,以生成对抗网络模型;S4基于第一损失函数、第二损失函数,并引入对抗损失函数,对对抗网络模型进行联合训练,以得到训练后的微表情判别模型,在对抗损失函数中,生成器以对抗损失函数最小化为目标,判别器以对抗损失函数最大化为目标。本发明采用预训练和联合训练的方式生成微表情判别模型,该微表情判别模型性能更好。

    一种基于稀疏低秩编码的视频动作识别方法

    公开(公告)号:CN106056082A

    公开(公告)日:2016-10-26

    申请号:CN201610377217.3

    申请日:2016-05-31

    CPC classification number: G06K9/00718

    Abstract: 本发明涉及一种基于稀疏低秩编码的视频动作识别方法。本发明对给定的视频集合进行如下操作:1)对每个视频从空间和时间两个维度使用立方体检测和描述视频动作的兴趣点,并形成相应的局部时空特征;2)利用稀疏低秩矩阵分解对局部时空特征做编码,形成对应兴趣点的稀疏低秩编码表示,并用改进的平均池化技术获得全局时空特征向量作为视频的数据表示;3)对所有视频样本实施上述步骤获得相应的时空数据表示,并分为训练样本和测试样本,再利用支持向量机建立分类模型用于识别测试样本的视频动作。本发明能够从局部和全局角度利用视频兴趣点的时空特征有力刻画视频动作,并通过稀疏低秩编码获得更优的视频数据表示,提高了视频动作识别的准确率。

    一种基于RNN与Mamba序列模型的ECG数据分类方法

    公开(公告)号:CN119807853A

    公开(公告)日:2025-04-11

    申请号:CN202510095407.5

    申请日:2025-01-21

    Abstract: 本发明涉及计算机视觉深度学习和医学数据处理技术领域,具体是一种基于RNN与Mamba序列模型的ECG数据分类方法,首先,对原始ECG数据使用Encoder编码器提取其初步特征,并加入位置编码。接着,一方面,基于ECG数据的时序性,通过RNN与Mamba模块提取其时域特征;另一方面,基于ECG数据波的特性,从ECG特征中通过连续小波变换CWT与离散傅里叶变换DFT获得其频率‑时间信息与幅值‑频率这两种频域特征;之后将这两种频域特征加入到时域特征中,以实现对时域特征的增强效果。之后,使用一个残差网络ResNetECG对增强后的时域特征进行分类。本发明提高了分类结果的准确率。

    基于自适应去除过渡帧深度网络的微表情检测方法

    公开(公告)号:CN111325131B

    公开(公告)日:2023-06-23

    申请号:CN202010092959.8

    申请日:2020-02-14

    Abstract: 本发明公开了一种基于自适应去除过渡帧深度网络的微表情检测方法。本发明包括网络构造、网络训练和微表情检测,其中所述的网络训练中首先对原始视频进行数据预处理;然后使用自适应去除过渡帧方法去除过渡帧;最后将去除了过渡帧的微表情帧和中性帧样本输入MesNet网络进行训练。本发明所构建的MesNet本质是一个二分类网络,检测微表情帧不依赖帧时序关系,因此MesNet不仅可以从微表情数据库完整视频中检测微表情帧,也可以从给定的任意帧集合中检测微表情帧,还可以判断给定的单独一帧是否为微表情帧。

    一种基于神经过程的自动微表情分类模型训练方法

    公开(公告)号:CN115019366A

    公开(公告)日:2022-09-06

    申请号:CN202210587464.1

    申请日:2022-05-25

    Abstract: 本发明涉及一种基于神经过程的自动微表情分类模型训练方法,包括如下步骤:抽取若干微表情图像作为微表情图像节点,并分为上下文节点和目标节点;对微表情图像节点进行特征提取,得到微表情特征信息;将上下文节点的微表情特征信息和真实标签输入编码器计算潜在特征信息,聚合潜在特征信息得到全局潜在变量;使用全局潜在变量在解码器中计算目标节点的表情预测标签;设定联合优化目标,使联合优化目标最小化。本发明的方法使用了神经过程,神经过程结合了神经网络和随机过程,能学习在函数上的分布,也能够根据上下文的观察估计其预测的不确定性。

    混合时空平面局部二值模式的自发微表情定位方法

    公开(公告)号:CN109800771A

    公开(公告)日:2019-05-24

    申请号:CN201910089341.3

    申请日:2019-01-30

    Abstract: 本发明公开一种混合时空平面局部二值模式的自发微表情定位方法。本发明根据自发微表情视频中连续帧的相关性,通过精细匹配实现了像素级人脸区域对齐,从而对头部偏移等干扰具有较强的抗干扰能力。同时在空间轴平面提取扇形区域特征,并在时间轴提取去冗余的线性特征,既减少了特征点冗余计算,又通过非线性特征融合的方式结合时空特征,形成更完备的特征表示,因此能更加鲁棒地表示自发微表情,提高了自发微表情视频中自发微表情定位精确率。

    一种基于稀疏低秩编码的视频动作识别方法

    公开(公告)号:CN106056082B

    公开(公告)日:2019-03-08

    申请号:CN201610377217.3

    申请日:2016-05-31

    Abstract: 本发明涉及一种基于稀疏低秩编码的视频动作识别方法。本发明对给定的视频集合进行如下操作:1)对每个视频从空间和时间两个维度使用立方体检测和描述视频动作的兴趣点,并形成相应的局部时空特征;2)利用稀疏低秩矩阵分解对局部时空特征做编码,形成对应兴趣点的稀疏低秩编码表示,并用改进的平均池化技术获得全局时空特征向量作为视频的数据表示;3)对所有视频样本实施上述步骤获得相应的时空数据表示,并分为训练样本和测试样本,再利用支持向量机建立分类模型用于识别测试样本的视频动作。本发明能够从局部和全局角度利用视频兴趣点的时空特征有力刻画视频动作,并通过稀疏低秩编码获得更优的视频数据表示,提高了视频动作识别的准确率。

    一种基于单张照片的目标立体化智能生成方法

    公开(公告)号:CN115222864A

    公开(公告)日:2022-10-21

    申请号:CN202210877210.3

    申请日:2022-07-25

    Inventor: 计忠平

    Abstract: 本发明公开了一种基于单张照片的目标立体化智能生成方法,包括如下步骤:S1、构建数据集,包括单个人物模型及由多个人物构成的场景,获取多个视角下带纹理的渲染图以及相应视角下的原始高度图;S2、构建特征提取网络模型,所述特征提取网络模型包括结构特征提取模块和细节特征提取模块,输入原始高度图通过结构特征提取模块得到结构高度图,通过细节特征提取模块得到细节高度图;S3、将得到的结构高度图和细节高度图通过加权融合得到完整的目标立体化形象模型;S4、目标立体化形象模型作可选的后处理,进行特征提升。该方法降低该过程对设备和专业技能的依赖和要求,降低每个互联网用户进行虚拟内容生产制作的门槛,使其变得像拍照那样的便捷。

Patent Agency Ranking