基于局部和全局注意力机制的视频动作识别方法

    公开(公告)号:CN116129326A

    公开(公告)日:2023-05-16

    申请号:CN202310160041.6

    申请日:2023-02-23

    Inventor: 赵彬 丁数学 杨婷

    Abstract: 本发明公开了一种基于局部和全局注意力机制的视频动作识别方法。包括步骤:设计一个局部建模模块,在非重叠窗口内局部计算自注意,该窗口划分了一个标记映射,它从小的三维领域的局部时空上下文中提取特征;在局部建模模块中嵌入卷积前馈神经网络,用于捕获局部连续性和位置信息;设计一个全局建模模块,在像素级标记上应用注意力机制,每个转置的标记都抽象全局信息;在全局建模模块中嵌入跳跃连接的卷积层,组成基于卷积神经网络和Transformer的网络LGATNet;不使用预训练,LGATNet在动作识别的公开数据集上进行模型参数学习,并在测试集输出对应的测试结果。本发明有效利用了多尺度特征信息,大大提高了动作识别的准确性和实时性。

    一种基于深度学习的多传感器采集单像素成像方法

    公开(公告)号:CN115187765A

    公开(公告)日:2022-10-14

    申请号:CN202210810303.4

    申请日:2022-07-11

    Abstract: 本发明公开了一种基于深度学习的多传感器采集单像素成像方法,用于提高单像素成像的质量。该方法涉及使用不同照明模式照射场景,在多个位置使用光强度传感器采集通过透镜汇聚反射回来的总的光强度;每个位置得到的数据可以使用单像素成像的方法单独成像。对每个位置得到的图像,通过自注意力条件生成对抗网络提取每张图像最为有效的特征,最终融合为一幅高分辨率的图像。本发明能够提高单像素成像的质量,对医学成像,遥感成像,太赫兹成像等提供技术基础。

    一种目标不携带设备的室内定位方法

    公开(公告)号:CN113419214A

    公开(公告)日:2021-09-21

    申请号:CN202110690349.2

    申请日:2021-06-22

    Abstract: 本发明公开了一种目标不携带设备的室内精确定位方法,该方法涉及获取目标在室内不同位置对无线电波的遮挡作用的量化数据与目标所在位置的标签,并对数据集进行划分得到训练样本集与测试样本集;然后将所有位置上的量化数据进行处理,最后将测试样本集使用字典进行线性表示,通过在目标方程中加入正则化来限制解的范围,求解可以得到一个包含目标位置信息的稀疏向量,稀疏向量中极大值的位置进行加权联合计算得到目标位置。本发明能够对目标室内位置进行有效预测,对智能家居控制,目标监控,银行防盗和智能医疗等提供技术基础。

    一种高速公路二次车祸规避方法及系统

    公开(公告)号:CN119479274A

    公开(公告)日:2025-02-18

    申请号:CN202411520669.3

    申请日:2024-10-29

    Abstract: 本发明提供一种高速公路二次车祸规避方法及系统,涉及车祸预防技术领域;方法包括:通过车辆的压力传感器采集车辆的压力数据,根据压力数据判断车辆是否受到撞击,若是,则发出预警提醒,若否,则通过车辆的定位设备采集车辆的定位信息,判断定位信息是否满足设定条件,若是,通过车辆的摄像头采集当前路段的现场视频,通过车祸检测算法对现场视频进行检测,得到发生车祸结果,若发生车祸结果为发生车祸,则发出预警提醒。本发明对车辆上设备采集的压力数据与图像数据分别进行分析,做出预警提醒,抗干扰性强,能够保持各车辆之间相互独立,且无需与其它车辆通信便可做出预警。

    基于MCP稀疏表示字典学习模型的显著性检测方法

    公开(公告)号:CN114220058B

    公开(公告)日:2024-10-22

    申请号:CN202111548488.8

    申请日:2021-12-17

    Abstract: 本发明公开了一种基于MCP稀疏表示字典学习模型的显著性检测方法。包括提取图像或视频的超像素特征;基于minimax concave penalty(MCP)稀疏约束设计稀疏表示字典学习模型;使用稀疏表示字典学习模型通过重构误差来学习图像显著性区域,重构误差大的超像素位置被认为是显著性区域;采用基于上下文的方案来获得像素级的统一重构误差。通过利用多尺度重建误差和面向对象的高斯细化过程获取像素级别的显著性检测图;采用贝叶斯积分方法来合并从重构误差中学习到的显著性检测图,得到最终显著性检测结果。本发明将提高图像或视频的显著性检测水平。此外,本发明通过对现实图像和视频信号进行显著性检测验证,相较于传统的显著性检测方法具有更好的效果。

    一种基于最优传输理论的图像生成模型无盒水印保护方法

    公开(公告)号:CN118505478A

    公开(公告)日:2024-08-16

    申请号:CN202410706402.7

    申请日:2024-06-03

    Abstract: 本发明公开了基于最优传输理论的图像生成模型无盒水印保护方法,属于人工智能安全领域,包括:接收来自宿主模型(待保护模型)所生成的待嵌入水印的图像和待嵌入水印;在去噪扩散概率模型(Denoising Diffusion Probabilistic Model,DDPM)的前向传播中训练U‑Net;基于最优传输理论在DDPM的反向传播中生成待嵌入的水印图像;基于变分自编码器的水印嵌入技术;与现有技术相比在DDPM反向传播阶段,我们创新性地运用了最优传输映射,使得我们能够在DDPM反向传播前期找到一个比较好的水印嵌入点。这一创新使我们成功生成了与原始输出图像高度匹配的图像,并在反向传播过程中成功在待嵌入水印的图像的隐空间中嵌入了隐式水印,最终达到了水印容量和嵌入之后的图像保真度之间的平衡点。

    基于一致性学习的左心房图像分割方法

    公开(公告)号:CN116958544A

    公开(公告)日:2023-10-27

    申请号:CN202310811345.4

    申请日:2023-07-04

    Abstract: 本发明公开了一种基于互惠一致性学习的左心房图像分割方法。包括步骤:设计一个由一个共享编码器和三个独立解码器构成的分割网络;由部分有标记的数据样本初始化上述步骤的分割网络;编码器提取到各级隐藏层特征后经特别设计的多级复合扰动后分别传输给不同解码器,经过多个上采样层和特征融合后这些解码器将输出三个具有差异的分割结果;评估这些结果的差异以计算认知不确定性数值,通过实行一致性正则化来降低不确定性值,进行模型训练;在测试数据集上对该网络进行评估,并输出对应的测试结果。本发明有效利用了无标记的数据样本,大大降低训练成本,提高了模型的分割精度。

    一种基于注意力转移的第一视角注视点预测方法

    公开(公告)号:CN116258768A

    公开(公告)日:2023-06-13

    申请号:CN202310056084.X

    申请日:2023-01-18

    Abstract: 本发明提供了一种基于注意力转移的第一视角注视点预测方法包括:提取光流图像;构建基于注意力转移的第一视角注视点预测模型;将所述光流图像输入所述第一视角注视点预测模型,获取空间特征和时间特征,基于所述空间特征和时间特征,获取初始视觉显著性图像和注意力图像,基于所述初始视觉显著性图像和注意力图像,融合生成最终的注视点预测图像。本发明对原图像在多尺度上进行了时空的特征提取,充分利用了时序信息和高层语义信息用于显著性检测,通过对注意力转移的建模,从先前的注视中预测后续的注意力,最后结合视觉显著性模型融合为最终注视点预测图,提高了注视点预测的准确度。

Patent Agency Ranking