一种基于两分支骨干网络的小样本目标检测方法

    公开(公告)号:CN115761372A

    公开(公告)日:2023-03-07

    申请号:CN202211523604.5

    申请日:2022-11-30

    Abstract: 本发明属于计算机视觉领域,具体涉及一种基于两分支骨干网络的小样本目标检测方法、系统、装置,旨在解决现有两阶段微调的方法中特征提取骨干网络难以较好地提取新类目标的特征,从而影响小样本目标检测性能的问题。本方法包括:获取待检测场景的图像,作为第一图像;提取所述第一图像的卷积特征,并构建特征金字塔,作为所述第一图像对应的第二特征金字塔;将所述第一图像对应的第二特征金字塔输入训练好的基于两分支骨干网络的小样本目标检测网络中的定位分类网络,获取目标检测结果,实现小样本目标检测。本发明可以有效地提取新类目标的特征,从而提升小样本目标检测性能,为小样本目标物体的检测提供技术支持。

    主动立体视觉系统标定方法

    公开(公告)号:CN113538598A

    公开(公告)日:2021-10-22

    申请号:CN202110822943.2

    申请日:2021-07-21

    Abstract: 本发明属于服务机器人技术领域,具体涉及一种主动立体视觉系统标定方法,旨在解决主动立体视觉系统中各相机的光心偏离对应的旋转轴情况下难以实现高质量标定的问题。本方法包括获取第一图像、第二图像、第三图像、第四图像、第五图像、第六图像;获取主动立体视觉系统的各相机旋转前后的相对位姿;获取各相机的旋转轴对应的旋转向量;结合各相机的旋转轴对应的旋转向量以及旋转角度,获取各相机的旋转轴在对应的预定义的初始位置坐标系中的位姿;获取第一相机和第二相机在初始位置时的相对位姿,进而得到第一相机的旋转轴和第二相机的旋转轴之间的相对位姿;在线更新主动立体视觉系统的外参。本发明提升了主动立体视觉系统的标定质量。

    基于有向几何点和稀疏帧的激光里程计方法、系统、装置

    公开(公告)号:CN112305554B

    公开(公告)日:2021-05-28

    申请号:CN202011323411.6

    申请日:2020-11-23

    Abstract: 本发明属于服务机器人技术领域,具体涉及一种基于有向几何点和稀疏帧的激光里程计方法、系统、装置,旨在解决激光里程计方法中帧图匹配效率较低的问题。本发明方法包括:获取周围环境在激光雷达传感器当前帧坐标系下的原始三维点云数据;构建第一有向几何点集、第一环境有向几何点集;将第一有向几何点集、第一环境有向几何点集转换到世界坐标系中,得到第二有向几何点集、第二环境有向几何点集;计算第二有向几何点集中的点在第二环境有向几何点集中的候选关联点,并确定出最佳关联点;构建位姿优化函数,并求解得到激光雷达传感器当前帧坐标系到世界坐标系的优化后位姿;更新稀疏帧的有向几何点集。本发明提高了帧图匹配的效率。

    基于双通路卷积神经网络的服务机器人抓取检测方法

    公开(公告)号:CN111815708A

    公开(公告)日:2020-10-23

    申请号:CN202010690489.5

    申请日:2020-07-17

    Abstract: 本发明属于服务机器人技术领域,具体涉及一种基于双通路卷积神经网络的服务机器人抓取检测方法、系统、装置,旨在解决机器人抓取检测方法难以兼具实时性和准确性问题。本发明方法包括:获取周围环境的原始彩色图像和原始深度图像,并将原始彩色图像转换为原始灰度图像;获取目标物体包围框,并得到第一深度图像区域、第一灰度图像区域;将图像区域调整至设定尺寸;对调整尺寸的图像区域进行编码,并相加;将相加后的特征图进行解码,得到抓取质量特征图、宽度特征图、高度特征图、第一角度特征图、第二角度特征图;得到最佳抓取矩形及其在原始彩色图像中对应的最佳抓取检测框,实现对目标物体的抓取检测。本发明保证了抓取的实时性和准确性。

    基于注意力机制和孪生反卷积的服务机器人抓取检测方法

    公开(公告)号:CN115648215B

    公开(公告)日:2024-01-26

    申请号:CN202211376120.2

    申请日:2022-11-04

    Abstract: 本发明属于服务机器人技术领域,具体涉及一种基于注意力机制和孪生反卷积的服务机器人抓取检测方法、系统、装置,旨在解决现有基于编码‑解码结构的抓取回归网络在解码过程中会呈现出棋盘格伪影,从而降低服务机器人抓取检测性能的问题。本发明方法包括:获取包含目标物体的原始彩色图像和原始深度图像;获取目标物体包围框,并得到第一深度图像区域、第一彩色图像区域;将图像区域调整至设定尺寸;对调整尺寸的图像区域进行编码;对编码后的特征图进行精修;将精修后的特征图进行解码;得到最佳抓取检测框,实现对目标物体的抓取检测。本发明消除了基于编码‑解码结构的抓取回归网络在解码过程中呈现出的棋盘格伪影,提高了抓取检测的性能。

    基于注意力机制和孪生反卷积的服务机器人抓取检测方法

    公开(公告)号:CN115648215A

    公开(公告)日:2023-01-31

    申请号:CN202211376120.2

    申请日:2022-11-04

    Abstract: 本发明属于服务机器人技术领域,具体涉及一种基于注意力机制和孪生反卷积的服务机器人抓取检测方法、系统、装置,旨在解决现有基于编码‑解码结构的抓取回归网络在解码过程中会呈现出棋盘格伪影,从而降低服务机器人抓取检测性能的问题。本发明方法包括:获取包含目标物体的原始彩色图像和原始深度图像;获取目标物体包围框,并得到第一深度图像区域、第一彩色图像区域;将图像区域调整至设定尺寸;对调整尺寸的图像区域进行编码;对编码后的特征图进行精修;将精修后的特征图进行解码;得到最佳抓取检测框,实现对目标物体的抓取检测。本发明消除了基于编码‑解码结构的抓取回归网络在解码过程中呈现出的棋盘格伪影,提高了抓取检测的性能。

    基于双通路卷积神经网络的服务机器人抓取检测方法

    公开(公告)号:CN111815708B

    公开(公告)日:2021-09-07

    申请号:CN202010690489.5

    申请日:2020-07-17

    Abstract: 本发明属于服务机器人技术领域,具体涉及一种基于双通路卷积神经网络的服务机器人抓取检测方法、系统、装置,旨在解决机器人抓取检测方法难以兼具实时性和准确性问题。本发明方法包括:获取周围环境的原始彩色图像和原始深度图像,并将原始彩色图像转换为原始灰度图像;获取目标物体包围框,并得到第一深度图像区域、第一灰度图像区域;将图像区域调整至设定尺寸;对调整尺寸的图像区域进行编码,并相加;将相加后的特征图进行解码,得到抓取质量特征图、宽度特征图、高度特征图、第一角度特征图、第二角度特征图;得到最佳抓取矩形及其在原始彩色图像中对应的最佳抓取检测框,实现对目标物体的抓取检测。本发明保证了抓取的实时性和准确性。

    基于场景坐标回归网络的视觉重定位方法、系统、装置

    公开(公告)号:CN113269831A

    公开(公告)日:2021-08-17

    申请号:CN202110548049.0

    申请日:2021-05-19

    Abstract: 本发明属于服务机器人技术领域,具体涉及一种基于场景坐标回归网络的视觉重定位方法、系统、装置,旨在解决基于场景坐标回归网络的视觉重定位方法难以适应大的相机视角变化的问题。本发明方法包括:获取服务机器人周围环境的原始彩色图像;构建第一坐标图、第二坐标图及距离图;通过特征提取得到源特征图;对源特征图进行特征变换;将变换后的特征图与源特征图相加,并通过回归器回归得到3D坐标图和不确定性图;获取2D像素坐标图,并基于不确定性图对3D坐标图和2D像素坐标图进行过滤;通过PnP算法获取服务机器人的位姿,实现服务机器人的视觉重定位。本发明提高了基于场景坐标回归网络的视觉重定位方法对大的相机视角变化的鲁棒性。

    基于双窗口的激光里程计方法、系统、装置

    公开(公告)号:CN114170280B

    公开(公告)日:2023-11-28

    申请号:CN202111498627.0

    申请日:2021-12-09

    Abstract: 本发明属于服务机器人技术领域,具体涉及一种基于双窗口的激光里程计方法、系统、装置,旨在解决现有帧图匹配与平滑相结合的激光里程计方法效率较低的问题。本发明方法包括:获取原始三维点云数据;提取特征,并构建第一特征集;构建第1帧的第一环境特征集;构建第二特征集、第二环境特征集;计算候选关联特征,进而确定出最佳关联特征;构建并求解位姿优化函数,更新激光雷达传感器当前帧坐标系到世界坐标系的位姿;利用第一特征集更新第一环境特征集;构建并求解内部小窗口中的关键帧的多帧位姿优化函数,更新内部小窗口中的所有关键帧的坐标系到世界坐标系的位姿。本发明提高了帧图匹配与平滑相结合的激光里程计方法的效率。(56)对比文件刘子明 等.可变高度激光里程计在室内不平整地面环境下的地图构建《.宁波大学学报(理工版)》.2020,第33卷(第4期),17-22.庞帆 等.激光雷达惯导耦合的里程计与建图方法《.计算机应用研究》.2021,第38卷(第7期),2188-2193,2199.杜学禹 等.一种基于ST-EKF的惯性/里程计滑动窗口滤波技术《.导航与控制》.2021,第20卷(第3期),26-33.

    基于场景坐标回归网络的视觉重定位方法、系统、装置

    公开(公告)号:CN113269831B

    公开(公告)日:2021-11-16

    申请号:CN202110548049.0

    申请日:2021-05-19

    Abstract: 本发明属于服务机器人技术领域,具体涉及一种基于场景坐标回归网络的视觉重定位方法、系统、装置,旨在解决基于场景坐标回归网络的视觉重定位方法难以适应大的相机视角变化的问题。本发明方法包括:获取服务机器人周围环境的原始彩色图像;构建第一坐标图、第二坐标图及距离图;通过特征提取得到源特征图;对源特征图进行特征变换;将变换后的特征图与源特征图相加,并通过回归器回归得到3D坐标图和不确定性图;获取2D像素坐标图,并基于不确定性图对3D坐标图和2D像素坐标图进行过滤;通过PnP算法获取服务机器人的位姿,实现服务机器人的视觉重定位。本发明提高了基于场景坐标回归网络的视觉重定位方法对大的相机视角变化的鲁棒性。

Patent Agency Ranking