一种基于环绕视角表征的含时序栅格占据率估计方法

    公开(公告)号:CN117636283B

    公开(公告)日:2025-05-06

    申请号:CN202311620331.0

    申请日:2023-11-30

    Abstract: 本发明涉及一种基于环绕视角表征的含时序栅格占据率估计方法,包括:接收车辆周围相机传感器获取的多视角相机图像;将所述多视角相机图像输入至栅格占据率估计模型中,得到栅格占据率预测结果;其中,所述栅格占据率估计模型包括:特征提取模块,用于从所述多视角相机图像中提取出图像特征;环视角注意力模块,用于将提取出的图像特征按照方向映射到环视视角,得到环视视角特征;时序特征多重注意力模块,用于通过多重注意力机制对所述环视视角特征进行处理,得到包含历史信息的时序特征;预测模块,用于根据包含历史信息的时序特征进行预测,得到栅格占据率预测结果。本发明克服了正视图和侧视图在同一坐标包含多个特征的问题。

    一种远心三维测量系统标定方法
    3.
    发明公开

    公开(公告)号:CN119359817A

    公开(公告)日:2025-01-24

    申请号:CN202411233194.X

    申请日:2024-09-04

    Abstract: 本发明涉及一种远心三维测量系统标定方法,包括以下步骤:构建由多个相互平行的标定平面组成的虚拟3D标定目标,所述标定平面上设有多个标定特征点;利用虚拟3D标定目标来对远心相机进行标定;利用相机像素坐标系与投影仪像素坐标系间的全局单应性关系,对标定特征点的投影仪像素坐标进行优化;根据优化后的投影仪像素坐标,完成对远心投影仪的标定;基于光束平差法,对相机和投影仪进行联合标定。本发明能够避免陷入平面局部最优解,同时有效解决相位误差的影响,获得更为精确的标定结果。

    一种远心光学系统三维重建点云数据优化方法

    公开(公告)号:CN119228993A

    公开(公告)日:2024-12-31

    申请号:CN202411173891.0

    申请日:2024-08-26

    Abstract: 本发明涉及一种远心光学系统三维重建点云数据优化方法,包括以下步骤:获取目标物体在相机平面的相机像素点;通过相位坐标转换方法确定与所述相机像素点匹配的投影仪像素点;根据远心光学系统三维成像模型确定与所述相机像素点匹配的投影仪像平面上的极线作为参考极线;根据投影仪像素点到参考极线的距离来进行优化,以使点云数据中的投影仪像素点均满足极线约束。本发明根据几何关系对重建点云结果进行优化,提高了三维重建的准确度和精度。

    一种手眼朝向协同目标定位方法

    公开(公告)号:CN113850145B

    公开(公告)日:2024-10-25

    申请号:CN202111003611.8

    申请日:2021-08-30

    Abstract: 本发明涉及一种手眼朝向协同目标定位方法,包括:采集当前场景的图像,并识别出人体区域图像;从人体区域图像中分割出头部区域图像和手部区域图像,并获取头部区域图像对应的深度图像和手部区域图像对应的深度图像;根据头部区域图像及其对应的深度图像,建立当前眼部的空间三维模型,根据手部区域图像及其对应的深度图像,建立当前手部的空间三维模型;根据当前眼部的空间三维模型和当前手部的空间三维模型,获取当前手、眼朝向向量;根据当前眼朝向向量和当前手朝向向量,计算当前待定位目标的空间位置。本发明提供的目标定位方法无需人工操作额外的辅助设备,能够在降低操作难度的同时,提高场景适应性和目标定位的准确性。

    一种基于频域自适应滤波优化的鲁棒立体匹配方法和装置

    公开(公告)号:CN118334389A

    公开(公告)日:2024-07-12

    申请号:CN202410497467.5

    申请日:2024-04-24

    Abstract: 本发明涉及一种基于频域自适应滤波优化的鲁棒立体匹配方法和装置,方法包括:获取双目图像;将获取的双目图像输入至立体匹配模型中,完成像素点的匹配得到视差图;立体匹配模型包括:特征提取网络,用于提取双目图像的特征,得到左图特征和右图特征;自适应滤波模块,用于将左图特征和右图特征转换到频域,并对左图特征和右图特征进行自适应滤波,并将滤波后的左图特征和右图特征重新变换到空间域完成代价体构建;频率补偿模块,用于对左图频域特征进行频率补偿,并与代价体聚合后的聚合特征进行融合,得到融合特征;视差预测模块,用于根据融合特征进行视差预测,完成像素点的匹配得到视差图。本发明能够提升立体匹配模型对校正误差的鲁棒性。

    一种基于扩散模型的单目深度估计与视觉里程计方法

    公开(公告)号:CN117911477A

    公开(公告)日:2024-04-19

    申请号:CN202311550536.6

    申请日:2023-11-21

    Abstract: 本发明涉及一种基于扩散模型的单目深度估计与视觉里程计方法,包括:接收目标图像和源图像;将目标图像和源图像输入至预测模型中,得到目标图像的深度图以及目标图像和源图像之间的相对位姿;其中,预测模型中的基于扩散模型的深度预测网络包括:特征提取部分,用于对目标图像进行特征提取,得到多尺度特征信息;扩散模型去噪部分,用于在多尺度特征信息的引导下进行去噪,生成图像的深度特征;深度解码器部分,用于对图像的深度特征进行处理,得到目标图像的深度图;位姿预测网络将合并后的目标图像和源图像作为输入,输出目标图像和源图像之间的相对位姿。本发明能够充分利用图像的特征信息,提高鲁棒性。

    一种视线方向的确定方法、装置、电子设备及存储介质

    公开(公告)号:CN113723293B

    公开(公告)日:2024-01-05

    申请号:CN202111009364.2

    申请日:2021-08-30

    Abstract: 本申请实施例所公开的一种视线方向的确定方法、装置、电子设备及存储介质,包括获取多个目标特征点对应的多个第一目标特征点位置数据和目标瞳孔对应的第一目标瞳孔位置数据,并根据多个第一目标特征点位置数据和位置确定模型,确定目标眼球位置数据,其中,位置确定模型是根据第一标定位置数据、多个第一标定特征点位置数据和第一标定瞳孔位置数据确定的,以及根据第一目标瞳孔位置数据和目标眼球位置数据,确定视线方向。基于本申请实施例从脸部图像中筛选出与眼球中心位置密切相关的特征点,利用仅与受试者本身脸部特征相关的参数确定位置确定模型,可以不受外部环境和受试者面部表情等因素的影响,从而可以提高视线方向估计的精度。

Patent Agency Ranking