基于半直接法和滑动窗口优化的单目视觉SLAM算法

    公开(公告)号:CN107610175A

    公开(公告)日:2018-01-19

    申请号:CN201710658521.X

    申请日:2017-08-04

    Abstract: 本发明公开了一种基于半直接法和滑动窗口优化的单目视觉SLAM算法,包括步骤:1)通过第三方的图像采集接口,将单目彩色摄像机采集到的彩色图像帧上传到电脑;2)进行算法初始化过程,建立初始的两帧之间的相机位姿变换关系,并且建立初始的地图点,同时将初始的两帧都作为关键帧,并将初始的地图点插入到地图与滑动窗口中;3)将前一帧观测到的地图点投影到当前帧中,并对两帧图像之间进行基于光度误差的捆集优化计算,得到两帧之间相机的姿态变换来跟踪相机的运动。本发明具有更快的运行速度,使用设备简单并且易于标定,具有较大的实用价值和更加广泛的应用场景。

    一种多模态情绪识别方法、系统、设备及介质

    公开(公告)号:CN115349860B

    公开(公告)日:2025-04-25

    申请号:CN202210819867.4

    申请日:2022-07-13

    Abstract: 本发明公开了一种多模态情绪识别方法、系统、设备及介质,包括虚拟现实场景构建模块、信号采集模块、特征提取模块、特征重构模块及多模态情绪识别模型;对穿戴VR设备被试者通过VR情绪图片库进行情绪诱发,采集被测试者在虚拟现实设备下的生理信号,并进行特征提取,通过迁移学习对各个模块进行特征重构,通过多模态特征融合最终实现情绪分类。本发明提供虚拟现实诱发态下基于注意力机制和迁移学习的多模态情绪识别系统,利用不同生理信号的优点,探索并挖掘其在情绪识别中的作用,借助迁移学习和注意力机制,加强情绪识别系统的泛化能力,这不仅在实际应用中具有良好的发展前景,也开创了一种情绪识别系统新模式。

    一种fNIRS多模态情感数据集采集方法及系统

    公开(公告)号:CN117598705A

    公开(公告)日:2024-02-27

    申请号:CN202311334080.X

    申请日:2023-10-16

    Abstract: 本发明公开了一种fNIRS多模态情感数据集采集方法及系统,包括刺激源选择;通过大五人格问卷筛选具有情绪稳定且外向性格特质的受试者参与采集实验;实验中每个试验的流程以及作用;将fNIRS设备采集到的发射‑接收前后光强的变化量,进一步得到氧合血红蛋白与脱氧血红蛋白浓度的相对变化量;将相对变化量数据进行基线校准和预处理操作;将预处理之后的数据送入情绪识别模块进行分类。本发明解决fNIRS多模态数据集在情感领域处于空白和前额叶激活状态在视频诱发态下的情绪缺乏研究的问题。

    一种多模态情绪识别方法、系统、设备及介质

    公开(公告)号:CN115349860A

    公开(公告)日:2022-11-18

    申请号:CN202210819867.4

    申请日:2022-07-13

    Abstract: 本发明公开了一种多模态情绪识别方法、系统、设备及介质,包括虚拟现实场景构建模块、信号采集模块、特征提取模块、特征重构模块及多模态情绪识别模型;对穿戴VR设备被试者通过VR情绪图片库进行情绪诱发,采集被测试者在虚拟现实设备下的生理信号,并进行特征提取,通过迁移学习对各个模块进行特征重构,通过多模态特征融合最终实现情绪分类。本发明提供虚拟现实诱发态下基于注意力机制和迁移学习的多模态情绪识别系统,利用不同生理信号的优点,探索并挖掘其在情绪识别中的作用,借助迁移学习和注意力机制,加强情绪识别系统的泛化能力,这不仅在实际应用中具有良好的发展前景,也开创了一种情绪识别系统新模式。

    基于多角度子区域自适应的全景图情感识别方法及系统

    公开(公告)号:CN113673567A

    公开(公告)日:2021-11-19

    申请号:CN202110816786.4

    申请日:2021-07-20

    Abstract: 本发明公开了基于多角度子区域自适应的全景图情感识别方法及系统,包括用于预测沉浸式虚拟环境下的用户情感识别,包括多角度旋转模块、特征提取模块、子区域自适应模块、多尺度融合模块及情感分类模块。利用球面多角度旋转算法产生一系列等距柱状投影全景图,输入卷积神经网络获取不同层次的特征优势。通过全局特征指导局部特征,自适应地建立当前尺度上下文特征之间的关联性,捕获不同层次特征图全局与局部的上下文依赖。对不同层次的特征图上采样,在通道维度拼接实现特征融合,获取用户的情感分类标签。本发明可正确预测用户在多种场景下的情感偏好及分布,提升VR下的用户体验。

    一种基于深度残差网络的人群计数方法

    公开(公告)号:CN106778502B

    公开(公告)日:2020-09-22

    申请号:CN201611042789.2

    申请日:2016-11-21

    Abstract: 本发明公开一种基于深度残差网络的人群计数方法。该方法运用深度残差网络提取人群监控视频中每帧图像的特征,其中深度残差网络的输入为一帧图像,经过一个5x5的核卷积与池化后得到初始特征图,再经过10个残差网络单元提取特征,主分支经过1x1的核卷积获得输入图像对应的人群密度图,辅助分支经过1x1的核卷积获得输入图像对应的人数,最后通过对人群密度图积分获得输入图像的人数估计值。每个残差网络单元结构为:1x1的卷积核后接入3x3的卷积核,再接入1x1的卷积核,每个卷积核后都加入批归一化与线性整流操作,同时上一残差网络单元的输出经过1x1的核卷积也作为下一残差网络单元的输入。本发明能减小场景变换对人群计数的影响,获得稳定的人群计数结果。

    一种实现图像多情感自主转换的方法及系统

    公开(公告)号:CN109800804A

    公开(公告)日:2019-05-24

    申请号:CN201910029893.5

    申请日:2019-01-10

    Inventor: 青春美 陈灿强

    Abstract: 本发明公开了一种实现图像多情感自主转换的方法及系统,包括情感识别单元及情感转换单元,其中情感识别系统能自动提取输入图像的特征,然后根据所提取特征预测图像9值的愉悦度-唤醒度,由所预测的V-A值识别出该输入图像的所属情感类别,然后生成相应控制码控制情感转换系统将输入图像转换成多张与输入图像情感类型不同的图像作为输出,情感转换是通过转换图像中能触发人类情感的低层艺术特征,如颜色,纹理等特征来实现的,输出图像的高层语义信息与输入图像一致。本发明图像转换过程不需要人工给定目标情感信息,只需给定要转换的图像就能得到多张不同情感的图像以供挑选,提升用户使用的便捷性。

    一种基于智能视频处理技术的课堂检测方法

    公开(公告)号:CN105631410B

    公开(公告)日:2019-04-09

    申请号:CN201510970928.7

    申请日:2015-12-18

    Abstract: 本发明提供了一种基于智能视频处理技术的课堂检测方法,其特征在于,包括出勤人数统计方法;出勤人数统计方法包括:从课室监控视频中提取若干素材图像‑归一化处理‑生成特征描述器‑采用Adaboost算法以学生上半身为识别目标生成分类器‑采用扫描子窗口遍历待检测图像‑统计总出勤人数的步骤。该课堂检测方法可节省课堂监控成本,准确统计出课室中出勤人数,统计准确度高,实现自动化教学质量评估,节省点名时间,节约人力成本。

Patent Agency Ranking