基于状态空间的2D屏幕注视点预测方法

    公开(公告)号:CN119296148A

    公开(公告)日:2025-01-10

    申请号:CN202411046431.1

    申请日:2024-08-01

    Abstract: 本发明公开了一种基于状态空间的2D屏幕注视点预测方法。其主要特征在于:(1)使用基于CNN网络的局部特征提取模块提取人脸图像的局部特征获取初始特征图;(2)初始特征图输入基于SSM的全局特征提取模块,其采用SS2D(2D选择性扫描)和FFN进行全局特征融合获得最终特征图并通过注视方向融合回归模块获得注视方向;(3)利用校准阶段获取的用户人脸图像和注视点坐标数据确定注视点映射模块的映射矩阵,最终通过注视点映射模块将预测阶段的注视方向转换为2D屏幕上的注视点。本发明方法可以有效提高用户的自由度与注视点预测的准确性。

    Transformer及其改进的显式位置编码方法

    公开(公告)号:CN118095357A

    公开(公告)日:2024-05-28

    申请号:CN202410277725.9

    申请日:2024-03-12

    Abstract: 本发明公开了Transformer及其改进的显式位置编码方法,包括:步骤S1、获取原始数据;步骤S2、将所述原始数据映射为Token序列;步骤S3、基于应用场景,设计显示位置编码方式;步骤S4、通过拼接方式,对所述Token序列添加显示位置编码,获得具有位置信息的输入序列;步骤S5、将所述具有位置信息的输入序列输入至Transformer编码器/解码器中,获取显式位置编码注意力运算机制;步骤S6、基于所述显示位置编码注意力运算机制计算位置信息并融合,重复步骤S5至步骤S6直至迭代次数结束;步骤S7、获得所述显式位置编码注意力模型的推理结果。

    基于时间和运动增强的视频动作识别方法

    公开(公告)号:CN115565100A

    公开(公告)日:2023-01-03

    申请号:CN202211091323.7

    申请日:2022-09-07

    Abstract: 本发明公开了一种基于时间和运动增强的视频动作识别方法。包括步骤:设计一个多路径时间增强模块,聚合由各种激发模块激发的多路径时间信息;设计一个长短程运动增强模块,编码相邻和非相邻视频帧之间的运动特征;将多路径时间增强模块和长短程运动增强模块依次连接在一起,形成时间和运动增强模块,并将其嵌入到一个二维卷积神经网络中;在动作识别的数据集上进行参数学习,将输入的视频进行稀疏采样并获得8帧图像,然后对它们进行预处理后导入上述步骤得到的网络进行训练;在动作识别的数据集上对上述步骤得到的算法进行评估,并输出对应的测试结果。本发明有效利用了时间特征和运动信息,大大提高了动作识别的准确性和实时性。

    一种基于MCP稀疏表示的视频关键帧提取方法

    公开(公告)号:CN114463680A

    公开(公告)日:2022-05-10

    申请号:CN202210122460.6

    申请日:2022-02-09

    Abstract: 本发明公开一种基于MCP稀疏表示的视频关键帧提取方法,包括以下步骤:拆分视频,获得图像帧,基于所述图像帧,构建视频信号矩阵;利用MCP稀疏约束构建稀疏表示模型;将所述视频信号矩阵输入所述稀疏表示模型,利用DC编码优化所述稀疏表示模型,计算稀疏系数矩阵,基于所述稀疏系数矩阵,获取关键帧索引;基于所述关键帧索引,提取所述视频中的关键帧。本发明提高了关键帧提取算法的计算速度,同时使提取的关键帧数量减少,降低压缩率。

    一种基于非线性框架字典学习的超表面定位方法及装置

    公开(公告)号:CN117347946B

    公开(公告)日:2025-05-02

    申请号:CN202311062990.7

    申请日:2023-08-22

    Abstract: 本发明涉及一种基于非线性框架字典学习的超表面定位方法及装置,旨在解决现有技术中存在的稀疏表示及字典学习问题是基于线性建模,而定位问题用线性建模不能最高效的拟合,导致定位精度的下降的技术问题。本发明包括:获取带有标签矩阵的目标区域内的训练目标的定位数据;结合标签矩阵方法和字典学习方法构建字典学习模型和目标分类模型,并基于所述字典学习模型和所述目标分类模型的结合加入非线性函数,计算出所述定位数据的判别字典和目标区域内的分类参数;基于所述判别字典,运用稀疏编码方法获取待定位目标的稀疏系数;基于所述稀疏系数,结合所述分类参数,得到待定位目标的位置信息。

    基于解析稀疏表示的关键帧提取方法

    公开(公告)号:CN114220059B

    公开(公告)日:2024-10-29

    申请号:CN202111548537.8

    申请日:2021-12-17

    Abstract: 本发明公开了一种基于解析稀疏表示的关键帧提取方法,包括步骤:将视频转化为矩阵表示,视频矩阵的每一列为视频的每一帧信号;设计一个基于minimax concave penalty (MCP)稀疏正则化的解析稀疏编码模型;将视频矩阵作为原信号,视频矩阵的转置矩阵作为解析字典,带入解析稀疏编码模型;通过解析稀疏编码算法计算出稀疏系数矩阵,其中稀疏系数矩阵的非零行代表关键帧的索引;根据关键帧的索引选择出对应的该视频关键帧。本发明将提高选取关键帧的压缩率,同时降低计算复杂度,提高关键帧的提取速度。此外,本发明通过对许多具有挑战性的现实世界场景进行验证,相较于传统的关键帧提取方法具有更高的提取效率。

    一种基于YOLO的可回溯智能寻物系统及其控制方法

    公开(公告)号:CN115937310A

    公开(公告)日:2023-04-07

    申请号:CN202211514924.4

    申请日:2022-11-29

    Abstract: 本申请公开了一种基于YOLO的可回溯智能寻物系统及其控制方法,其中系统包括:智能摄像头、识别子系统、寻物子系统和部署模块;智能摄像头用于采集视频信号;识别子系统用于基于目标信息筛选视频信号,得到目标视频信号,并识别目标视频信号中的目标;寻物子系统用于提取并处理视频信号中所述目标的关键帧,得到目标位置;部署模块用于将寻物子系统加速部署至智能摄像头内。本申请通过提出种基于YOLO的可回溯智能寻物方法及系统,能够实现快速定位寻物,通过在嵌入式平台对智能寻物系统进行模型推理和优化,使目标识别的效率可以做到实时处理,同时可以在离线实时部署,更好保护个人隐私。

    一种目标不携带设备的室内定位方法

    公开(公告)号:CN113419214B

    公开(公告)日:2022-08-30

    申请号:CN202110690349.2

    申请日:2021-06-22

    Abstract: 本发明公开了一种目标不携带设备的室内精确定位方法,该方法涉及获取目标在室内不同位置对无线电波的遮挡作用的量化数据与目标所在位置的标签,并对数据集进行划分得到训练样本集与测试样本集;然后将所有位置上的量化数据进行处理,最后将测试样本集使用字典进行线性表示,通过在目标方程中加入正则化来限制解的范围,求解可以得到一个包含目标位置信息的稀疏向量,稀疏向量中极大值的位置进行加权联合计算得到目标位置。本发明能够对目标室内位置进行有效预测,对智能家居控制,目标监控,银行防盗和智能医疗等提供技术基础。

    基于解析稀疏表示的关键帧提取方法

    公开(公告)号:CN114220059A

    公开(公告)日:2022-03-22

    申请号:CN202111548537.8

    申请日:2021-12-17

    Abstract: 本发明公开了一种基于解析稀疏表示的关键帧提取方法,包括步骤:将视频转化为矩阵表示,视频矩阵的每一列为视频的每一帧信号;设计一个基于minimax concave penalty(MCP)稀疏正则化的解析稀疏编码模型;将视频矩阵作为原信号,视频矩阵的转置矩阵作为解析字典,带入解析稀疏编码模型;通过解析稀疏编码算法计算出稀疏系数矩阵,其中稀疏系数矩阵的非零行代表关键帧的索引;根据关键帧的索引选择出对应的该视频关键帧。本发明将提高选取关键帧的压缩率,同时降低计算复杂度,提高关键帧的提取速度。此外,本发明通过对许多具有挑战性的现实世界场景进行验证,相较于传统的关键帧提取方法具有更高的提取效率。

    基于MCP稀疏表示字典学习模型的显著性检测方法

    公开(公告)号:CN114220058A

    公开(公告)日:2022-03-22

    申请号:CN202111548488.8

    申请日:2021-12-17

    Abstract: 本发明公开了一种基于MCP稀疏表示字典学习模型的显著性检测方法。包括提取图像或视频的超像素特征;基于minimax concave penalty(MCP)稀疏约束设计稀疏表示字典学习模型;使用稀疏表示字典学习模型通过重构误差来学习图像显著性区域,重构误差大的超像素位置被认为是显著性区域;采用基于上下文的方案来获得像素级的统一重构误差。通过利用多尺度重建误差和面向对象的高斯细化过程获取像素级别的显著性检测图;采用贝叶斯积分方法来合并从重构误差中学习到的显著性检测图,得到最终显著性检测结果。本发明将提高图像或视频的显著性检测水平。此外,本发明通过对现实图像和视频信号进行显著性检测验证,相较于传统的显著性检测方法具有更好的效果。

Patent Agency Ranking