注意力引导插值方法和低延迟语义分割方法

    公开(公告)号:CN114140322B

    公开(公告)日:2024-07-05

    申请号:CN202111374589.8

    申请日:2021-11-19

    Abstract: 本发明公开了一种注意力引导插值方法:对初始低分辨率特征图利用双线性插值进行上采样得到上采样的低分辨率特征图,并将上采样的低分辨率特征图与初始高分辨率特征图拼接得到查询特征矩阵;将上采样的低分辨率特征图看作键特征矩阵和值特征矩阵,把查询特征矩阵和键特征矩阵输入到相似度函数中,并将相似度函数输出的结果输入归一化指数函数,计算得到相似度矩阵,再通过相似度矩阵和值特征矩阵求出每一个高分辨率特征图中像素的特征向量,得到中间高分辨率特征图;将中间高分辨率特征图Fa和上采样的低分辨率特征图Fl拼接,再通过1x1的卷积,得到最终输出的高分辨率特征图。本发明还公开了相应的低延迟语义分割方法。

    一种基于Transformer的面部注视估计方法

    公开(公告)号:CN117765590A

    公开(公告)日:2024-03-26

    申请号:CN202311785920.4

    申请日:2023-12-22

    Abstract: 本发明公开一种基于Transformer的面部注视估计方法:(1)训练基于朴素视觉Transformer的强化融合的注视估计算法模型,包括:(1.1)对原始数据集中的所有图片的面部特征区域进行识别和标注,以进行数据清理并得到带有统一高精度标注的标准数据集,标签为实例级别的包围框的左上及右下顶点;(1.2)构建基于朴素视觉Transformer的强化融合的面部注视特征提取架构,利用多重面部注视特征编码及特征间长距离建模提取及融合特征语义信息;(1.3)利用上述提取出的强化语义信息融合的面部注视特征进行注视估计;(2)利用上述训练好的模型进行注视估计。本发明通过对突出面部局部特征信息和全局特征信息间的强化融合,更完整且精确的提取面部特征信息以进行注视估计。

    基于三分图视觉Transformer语义信息解码器的抠图方法与装置

    公开(公告)号:CN115471665A

    公开(公告)日:2022-12-13

    申请号:CN202211054850.0

    申请日:2022-08-31

    Abstract: 本发明公开了一种基于三分图视觉Transformer语义信息解码器的抠图方法:用连续的卷积层构建起一个轻量化的细节特征提取层,使用该特征提取层处理图片I,得到细节特征图组{D1,D2,D3,D4};使用三分图视觉Transformer语义信息解码器处理细节特征图D4和三分图Trimap,得到语义特征图S4;通过连续使用抠图解码器,处理上层语义特征图和对应细节特征图,得到融合语义特征图以及层级抠图输出;在训练数据集上训练构建的基于三分图视觉Transformer解码器的抠图网络至收敛;使用训练好的抠图网络处理待抠图图片,最后一层抠图解码器输出的层级抠图输出结果,即为最终的抠图结果。本发明还提供了相应的基于三分图视觉Transformer语义信息解码器的抠图装置。

    注意力引导插值方法和低延迟语义分割方法

    公开(公告)号:CN114140322A

    公开(公告)日:2022-03-04

    申请号:CN202111374589.8

    申请日:2021-11-19

    Abstract: 本发明公开了一种注意力引导插值方法:对初始低分辨率特征图利用双线性插值进行上采样得到上采样的低分辨率特征图,并将上采样的低分辨率特征图与初始高分辨率特征图拼接得到查询特征矩阵;将上采样的低分辨率特征图看作键特征矩阵和值特征矩阵,把查询特征矩阵和键特征矩阵输入到相似度函数中,并将相似度函数输出的结果输入归一化指数函数,计算得到相似度矩阵,再通过相似度矩阵和值特征矩阵求出每一个高分辨率特征图中像素的特征向量,得到中间高分辨率特征图;将中间高分辨率特征图Fa和上采样的低分辨率特征图Fl拼接,再通过1x1的卷积,得到最终输出的高分辨率特征图。本发明还公开了相应的低延迟语义分割方法。

Patent Agency Ranking