一种目标追踪方法和仿生视觉装置

    公开(公告)号:CN112419361A

    公开(公告)日:2021-02-26

    申请号:CN202011308457.0

    申请日:2020-11-20

    Abstract: 本申请涉及一种目标追踪方法和仿生视觉装置,该方法包括:获取当前帧的第一图像;第一图像是通过仿生视觉成像单元得到的;对第一图像进行对象位置检测,得到第一图像中对象的第一位置信息;基于第一位置信息确定第一追踪区域和特征区域;在下一帧的第一图像中,确定与第一追踪区域相匹配的第一目标追踪区域;基于特征区域对第一目标追踪区域进行目标检测,得到下一帧的第一图像中对象的第一目标位置信息。本申请通过对采集的图像进行处理来模拟相机视线的变化,实现目标的追踪,不需要设置云台,如此可以降低装置成本,同时可以简化三维感知运算过程。

    一种注视检测方法、装置、设备及存储介质

    公开(公告)号:CN112308932A

    公开(公告)日:2021-02-02

    申请号:CN202011217737.0

    申请日:2020-11-04

    Abstract: 本申请公开一种注视检测方法、装置、设备及存储介质,本申请通过获取目标相机采集的目标对象的基准图像和参考图像,以及目标相机的内外参;基于基准图像对应的像素坐标系,构建基准图像对应的头部坐标系;确定第一坐标转换关系;基于目标对象的双眼瞳孔中心在基准图像和参考图像各自对应的像素坐标系中的第一像素坐标、第二像素坐标,以及目标相机的内外参,确定目标对象的双眼瞳孔中心在基准图像对应的相机坐标系中的第一相机坐标;基于平均人脸模型和基准图像对应的头部坐标系确定目标对象的双眼眼球中心,以及目标对象的双眼眼球中心的第一头部坐标;确定基准图像对应的相机坐标系中的目标对象的视线方向和注视点,可以实现利用相机作为采集设备。

    一种像素位移量确认方法、装置、电子设备及存储介质

    公开(公告)号:CN111179246B

    公开(公告)日:2021-01-29

    申请号:CN201911375942.7

    申请日:2019-12-27

    Abstract: 本申请涉及一种像素位移量确认方法、装置、电子设备及存储介质,该方法包括:通过用第一卷积核集合对第一帧图像和第二帧图像的像素进行像素特征提取得到第一特征层集合和第二特征层集合;用第二卷积核集合对第一特征层集合和第二特征层集合进行像素特征提取得到第三特征层集合和第四特征层集合;将第一特征层集合和第三特征层集合聚合处理得到第一聚合特征,将第二特征层集合和第四特征层集合聚合处理得到第二聚合特征;对第一聚合特征和第二聚合特征进行解码处理得到第一帧图像中像素的位移量,如此,对相邻的两帧图像进行多次的像素特征提取,尽可能的提取图像中像素特征,在一定程度上提高了像素位移量的估计精度。

    一种三维语义地图的构建方法、装置、电子设备及存储介质

    公开(公告)号:CN111190981B

    公开(公告)日:2020-11-06

    申请号:CN201911354167.7

    申请日:2019-12-25

    Abstract: 本申请涉及一种三维语义地图的构建方法、装置、电子设备及存储介质,该方法通过获取环境图像集合,并根据已训练的语义分割模型对环境图像集合进行语义分割,得到语义图像序列。将语义图像序列的每帧语义图像投射到预先建立的三维坐标系上,得到第一点云集合,第一点云集合中的第一点云对应每帧语义图像。对第一点云集合进行滤波,得到滤波后的第一点云集合;对滤波后的第一点云集合中的第一点云进行聚类处理,得到第二点云集合;对第二点云集合进行滤波,得到三维语义地图。本申请将彩色图像序列和深度图像序列结合作为语义分割模型的输入,如此,可以提升语义预测能力,且基于带语义的点云分层次地进行滤波,可以节约缓存、提升实时性。

    一种基于点云的语义实例确定方法、装置、电子设备及存储介质

    公开(公告)号:CN111192265A

    公开(公告)日:2020-05-22

    申请号:CN201911360880.2

    申请日:2019-12-25

    Abstract: 本申请公开了一种基于点云的语义实例确定方法、装置、电子设备及存储介质,所述方法包括:将点云输入训练后的编码模块,得到多个点集中每个点集对应的包含集合补充信息和集合关系信息的特征信息;所述编码模块包含区域特征补充模块和区域关系推理模块;所述多个点集中的点的并集为所述点云,至少有两个点集中存在交集;基于训练后的语义实例确定模块对所述每个点集对应的包含集合补充信息和集合关系信息的特征信息进行语义和实例的确定,得到所述点云中每个点的语义标签和实例标签;所述语义标签用于表征所述每个点所属的类别;所述实例标签用于表征所述每个点所属的实例,可以降低稀疏区域的点云分割的错误率。

    一种面向具身交互的情境化场景问答数据生成方法

    公开(公告)号:CN120012916A

    公开(公告)日:2025-05-16

    申请号:CN202411944935.5

    申请日:2024-12-27

    Abstract: 本发明涉及一种面向具身交互的情境化场景问答数据生成方法,包括以下步骤:获取目标场景数据;基于所述目标场景数据,利用描述模型生成对应的场景上下文描述;基于智能体在场景中的位置和朝向设定多个不同情景,并根据设定情景将所述场景上下文描述映射到智能体的第一视角,得到对应的情景上下文描述;基于所述目标场景数据,构建交互式问答采集系统来采集真实用户的问答数据;对所述情景上下文描述进行关键词拆分,并将拆分后的关键词作为真实用户参与交互问答过程中的先验提示。本发明能够生成更加符合人类的情境化场景以及具身智能的应用需求的问答数据,为增强智能体的推理能力和泛化能力提供更好的基础。

    基于先验深度与高斯溅射模型融合的场景三维重建方法

    公开(公告)号:CN118351252A

    公开(公告)日:2024-07-16

    申请号:CN202410417649.7

    申请日:2024-04-09

    Abstract: 本发明涉及一种基于先验深度与高斯溅射模型融合的场景三维重建方法,包括:获取多视角下的场景图像;将多视角下的场景图像输入至场景三维重建模型中,完成场景的三维重建;其中,场景三维重建模型包括:单目深度估计网络与视觉里程计,用于基于多视角下的场景图像得到多视角下场景图像的稠密先验深度与相机位姿;点云生成模块,用于使用稠密先验深度与相机位姿生成世界坐标系下的空间点云,并将空间点云初始化为一组具有不透明度和球面谐波的三维高斯体;三维高斯优化模块,用于使用先验深度引导的自适应密度控制策略对三维高斯体的空间分布进行优化调整,完成场景的三维重建。本发明缓解观测数据不足导致的重建模糊问题。

    一种融合语义的无监督深度估计与视觉里程计方法和系统

    公开(公告)号:CN118052841A

    公开(公告)日:2024-05-17

    申请号:CN202410070464.3

    申请日:2024-01-18

    Abstract: 本发明涉及一种融合语义的无监督深度估计与视觉里程计方法和系统,其中,方法包括:接收视频序列;将所述视频序列输入至预测模型,得到预测结果;其中,所述预测模型包括:深度估计子网络,用于估计输入的目标图像对应的深度图;位姿估计子网络,用于估计输入的目标图像和源图像之间的相对位姿;语义分割子网络,用于对输入的目标图像和重建目标图像进行语义分割,得到用于构造语义重投影损失的目标图像语义分割结果和重建目标图像语义分割结果;语义掩码模块,用于根据目标图像语义分割结果构造语义掩码;重投影模块,用于根据深度图、相对位姿和语义掩码对源图像进行重投影操作,得到重建目标图像。本发明能够增强重投影损失的效用。

    一种双目图像的立体匹配方法
    50.
    发明公开

    公开(公告)号:CN118037801A

    公开(公告)日:2024-05-14

    申请号:CN202410109880.X

    申请日:2024-01-25

    Abstract: 本发明涉及一种双目图像的立体匹配方法,包括以下步骤:获取双目图像;采用立体匹配模型对所述双目图像进行分析获得视差估计;所述立体匹配模型包括:视差估计网络,用来提取所述双目图像的多尺度双目融合特征,并根据所述双目融合特征预测视差估计;光谱转换网络,用来分别提取所述双目图像不同视角的多尺度单目特征进而生成单目伪图像,且在任一尺度的多尺度单目特征提取后嵌入特征交互模块对所述任一尺度的所述单目特征进行优化;所述视差估计网络和所述光谱转换网络通过所述单目伪图像和所述视差估计来调整网络参数。本发明能够增强图像域差异较大区域的特征感知,获得更为精确的立体匹配结果。

Patent Agency Ranking