一种基于CNN融合transformer的人脸外观注视方向预测方法

    公开(公告)号:CN118379774A

    公开(公告)日:2024-07-23

    申请号:CN202410537522.9

    申请日:2024-04-30

    Inventor: 李玉洁 洪宇航

    Abstract: 本发明公开了一种基于CNN融合transformer的人脸外观注视方向预测方法,属于图像处理技术领域,发明内容包括:获取待测对象的人脸外观图像;将所述待测对象的人脸图像输入可靠梯度传播的卷积神经网络中,提取人脸图像中的大尺度特征、中等尺度特征以及全局视觉特征;将提取的特征输入到transformer模块,聚合为多尺度特征;将聚合的多尺度特征以及全局视觉特征经过多头交叉注意力,输出注视方向。本发明融合CNN与transformer的优势,解决了现有注视方向预测技术信息丢失严重和多尺度特征利用率低的问题。

    一种基于YOLO的可回溯智能寻物系统及其控制方法

    公开(公告)号:CN115937310A

    公开(公告)日:2023-04-07

    申请号:CN202211514924.4

    申请日:2022-11-29

    Abstract: 本申请公开了一种基于YOLO的可回溯智能寻物系统及其控制方法,其中系统包括:智能摄像头、识别子系统、寻物子系统和部署模块;智能摄像头用于采集视频信号;识别子系统用于基于目标信息筛选视频信号,得到目标视频信号,并识别目标视频信号中的目标;寻物子系统用于提取并处理视频信号中所述目标的关键帧,得到目标位置;部署模块用于将寻物子系统加速部署至智能摄像头内。本申请通过提出种基于YOLO的可回溯智能寻物方法及系统,能够实现快速定位寻物,通过在嵌入式平台对智能寻物系统进行模型推理和优化,使目标识别的效率可以做到实时处理,同时可以在离线实时部署,更好保护个人隐私。

    一种目标不携带设备的室内定位方法

    公开(公告)号:CN113419214B

    公开(公告)日:2022-08-30

    申请号:CN202110690349.2

    申请日:2021-06-22

    Abstract: 本发明公开了一种目标不携带设备的室内精确定位方法,该方法涉及获取目标在室内不同位置对无线电波的遮挡作用的量化数据与目标所在位置的标签,并对数据集进行划分得到训练样本集与测试样本集;然后将所有位置上的量化数据进行处理,最后将测试样本集使用字典进行线性表示,通过在目标方程中加入正则化来限制解的范围,求解可以得到一个包含目标位置信息的稀疏向量,稀疏向量中极大值的位置进行加权联合计算得到目标位置。本发明能够对目标室内位置进行有效预测,对智能家居控制,目标监控,银行防盗和智能医疗等提供技术基础。

    基于解析稀疏表示的关键帧提取方法

    公开(公告)号:CN114220059A

    公开(公告)日:2022-03-22

    申请号:CN202111548537.8

    申请日:2021-12-17

    Abstract: 本发明公开了一种基于解析稀疏表示的关键帧提取方法,包括步骤:将视频转化为矩阵表示,视频矩阵的每一列为视频的每一帧信号;设计一个基于minimax concave penalty(MCP)稀疏正则化的解析稀疏编码模型;将视频矩阵作为原信号,视频矩阵的转置矩阵作为解析字典,带入解析稀疏编码模型;通过解析稀疏编码算法计算出稀疏系数矩阵,其中稀疏系数矩阵的非零行代表关键帧的索引;根据关键帧的索引选择出对应的该视频关键帧。本发明将提高选取关键帧的压缩率,同时降低计算复杂度,提高关键帧的提取速度。此外,本发明通过对许多具有挑战性的现实世界场景进行验证,相较于传统的关键帧提取方法具有更高的提取效率。

    基于MCP稀疏表示字典学习模型的显著性检测方法

    公开(公告)号:CN114220058A

    公开(公告)日:2022-03-22

    申请号:CN202111548488.8

    申请日:2021-12-17

    Abstract: 本发明公开了一种基于MCP稀疏表示字典学习模型的显著性检测方法。包括提取图像或视频的超像素特征;基于minimax concave penalty(MCP)稀疏约束设计稀疏表示字典学习模型;使用稀疏表示字典学习模型通过重构误差来学习图像显著性区域,重构误差大的超像素位置被认为是显著性区域;采用基于上下文的方案来获得像素级的统一重构误差。通过利用多尺度重建误差和面向对象的高斯细化过程获取像素级别的显著性检测图;采用贝叶斯积分方法来合并从重构误差中学习到的显著性检测图,得到最终显著性检测结果。本发明将提高图像或视频的显著性检测水平。此外,本发明通过对现实图像和视频信号进行显著性检测验证,相较于传统的显著性检测方法具有更好的效果。

    一种深度多模态图像融合方法及系统

    公开(公告)号:CN120047784A

    公开(公告)日:2025-05-27

    申请号:CN202510123737.0

    申请日:2025-01-26

    Abstract: 本发明提供一种深度多模态图像融合方法及系统,涉及图像处理技术领域;方法包括:分别对过曝光图像和欠曝光图像特征提取,分别得到过曝光图像的字典特征和稀疏特征以及欠曝光图像的字典特征和稀疏特征,通过总目标函数分别对欠曝光图像和过曝光图像的字典特征和稀疏特征进行更新,通过非线性函数分别对更新后的字典特征和稀疏特征提取共同特征,根据提取到的共同特征进行特征提取,得到过曝光融合图像和欠曝光融合图像并进行融合处理,得到重建图像并与标准图像进行比较,生成评价指标。通过总目标函数迭代变化进行变换学习,提取出更高质量的稀疏特征,来捕获图像的重要内在属性以对图像重建,实现多模态图像的融合。

    一种多尺度特征金字塔网络融合ViT的手机外壳缺陷检测方法

    公开(公告)号:CN119445227A

    公开(公告)日:2025-02-14

    申请号:CN202411514557.7

    申请日:2024-10-29

    Abstract: 本发明提供了一种多尺度特征金字塔网络融合ViT的手机外壳表面缺陷检测方法,属于人工智能图像处理领域。其包括:分析手机外壳缺陷特征,确定缺陷类型;采集手机外壳图像并预处理;对图像进行像素级标注并添加标签信息,构建数据集;通过裁剪、翻转、加噪等进行数据增强,生成训练集、验证集和测试集;构建融合多尺度特征金字塔网络与ViT的缺陷检测模型;将训练集、验证集和测试集输入模型进行训练与评估,获得训练好的模型;将待检测图像输入模型,输出缺陷类型及标注缺陷位置的结果图像。本发明通过特征金字塔网络实现多尺度目标检测与语义分割,融合ViT获取全局信息和位置关联性,提高缺陷检测的准确性与定位能力。

Patent Agency Ranking