一种基于图像和点云融合的火星表面三维地形检测方法

    公开(公告)号:CN113298781A

    公开(公告)日:2021-08-24

    申请号:CN202110565199.2

    申请日:2021-05-24

    Inventor: 高浩 黄卫 胡海东

    Abstract: 本发明公开了一种基于图像和点云融合的火星表面三维地形检测方法,包括:获取火星表面待检测区域的图像数据;将待检测区域的图像数据作为已训练好的三维目标检测网络的输入;根据三维目标检测网络的输出,确定火星表面待检测区域的地形检测结果;将地形检测结果进行可视化输出;本发明通过深度学习的方法将图像和点云信息融合并利用起来,有效解决了火星表面目标地形三维空间检测的问题。

    一种小行星3D模拟模型立体重建方法

    公开(公告)号:CN113298932A

    公开(公告)日:2021-08-24

    申请号:CN202110544538.9

    申请日:2021-05-19

    Abstract: 本发明公开了一种小行星3D模拟模型立体重建方法,获取在不同光照角度、不同3D小行星模拟模型的旋转角度下视觉相机采集的3D小行星模拟模型图片,获取在不同条件下的3D小行星模拟模型图片并生成对应mask图片,mask图片进行光度立体重建,计算3D小行星模拟模型的表面反照率和3D小行星模拟模型的表面深度,生成不同角度的光度立体模型maplet,使用ICP特征匹配融合不同角度的3D小行星模拟模型,获得3D小行星模拟模型的多视角光度立体三维模型;本发明模拟生成小行星光度立体三维重建所需数据,解决小行星数据不足的问题,提出融合多角度的光度立体模型maplet,在恢复表面细节的同时可以观察整体结构。

    一种基于标志器的非合作目标位姿测量方法

    公开(公告)号:CN108562274B

    公开(公告)日:2020-10-27

    申请号:CN201810359727.7

    申请日:2018-04-20

    Abstract: 本发明公开了一种基于标志器的非合作目标位姿测量方法,首先通过对不同的标志器进行识别,解算标志器位姿,得到各标志器坐标系与相机坐标系之间的相对位姿;进行特征点三维坐标恢复,对标志器进行定位,解算各标志器坐标系与目标器坐标系间的位姿参数;精确估算出追踪航天器与目标航天器之间的相对位姿;通过引入预先设计的标志器可以更精确地测量位姿信息,解决非合作目标位姿测量准确度低的技术问题,同时克服了交会对接近距离阶段,追踪航天器无法获取完整目标航天器特定部件图像以识别定位的缺点。

    一种基于深度学习的PCB板元器件检测方法

    公开(公告)号:CN110070536A

    公开(公告)日:2019-07-30

    申请号:CN201910333652.X

    申请日:2019-04-24

    Abstract: 本发明公开了一种基于深度学习的PCB板元器件检测方法,包括:获取大量PCB板图像并对其标注用来对网络进行训练;训练faster-rcnn来检测元器件位置并切割下来;训练一个简单的卷积网络来判断元器件极性;训练EAST网络来检测元器件图像上文本框的位置并切割出来;训练CRNN网络识别切割出的文本框图像中的文本内容;将极性与文本内容与PCB设计文件比对得出结果。本发明实现了对物体标识符的全自动识别,解决了目前各个检测阶段对接困难的问题。

    一种小行星3D模拟模型立体重建方法

    公开(公告)号:CN113298932B

    公开(公告)日:2022-08-30

    申请号:CN202110544538.9

    申请日:2021-05-19

    Abstract: 本发明公开了一种小行星3D模拟模型立体重建方法,获取在不同光照角度、不同3D小行星模拟模型的旋转角度下视觉相机采集的3D小行星模拟模型图片,获取在不同条件下的3D小行星模拟模型图片并生成对应mask图片,mask图片进行光度立体重建,计算3D小行星模拟模型的表面反照率和3D小行星模拟模型的表面深度,生成不同角度的光度立体模型maplet,使用ICP特征匹配融合不同角度的3D小行星模拟模型,获得3D小行星模拟模型的多视角光度立体三维模型;本发明模拟生成小行星光度立体三维重建所需数据,解决小行星数据不足的问题,提出融合多角度的光度立体模型maplet,在恢复表面细节的同时可以观察整体结构。

    一种基于深度强化学习的卫星消旋方法

    公开(公告)号:CN112340063B

    公开(公告)日:2022-05-31

    申请号:CN202011039508.4

    申请日:2020-09-28

    Abstract: 本发明公开了一种基于深度强化学习的卫星消旋方法,其特征在于,包括以下步骤:标注已知卫星的数据样本建立已知卫星的样本数据集;利用全卷积神经网络训练样本数据集,使得终端能够了解和识别图像或视频中的已知卫星,得到图像或视频中已知卫星的关键点的置信度图;跟踪视频中关键点的运动轨迹,通过PNP算法估计已知卫星的位姿;通过DDPG算法训练最优消旋,空间机械臂的消旋刷刷航天器帆板侧边完成卫星消旋。本发明方法借助深度强化学习,实现对高速自旋的失控卫星的消旋,同时结合视觉信息让计算机跟数据和模型环境接触,训练最优抓取位姿,提高了空间机械臂目标捕获的准确度。

    一种基于标志器的非合作目标位姿测量方法

    公开(公告)号:CN108562274A

    公开(公告)日:2018-09-21

    申请号:CN201810359727.7

    申请日:2018-04-20

    Abstract: 本发明公开了一种基于标志器的非合作目标位姿测量方法,首先通过对不同的标志器进行识别,解算标志器位姿,得到各标志器坐标系与相机坐标系之间的相对位姿;进行特征点三维坐标恢复,对标志器进行定位,解算各标志器坐标系与目标器坐标系间的位姿参数;精确估算出追踪航天器与目标航天器之间的相对位姿;通过引入预先设计的标志器可以更精确地测量位姿信息,解决非合作目标位姿测量准确度低的技术问题,同时克服了交会对接近距离阶段,追踪航天器无法获取完整目标航天器特定部件图像以识别定位的缺点。

    一种基于深度强化学习的卫星抓取方法

    公开(公告)号:CN113724260B

    公开(公告)日:2023-10-17

    申请号:CN202110883603.0

    申请日:2021-08-03

    Abstract: 本发明公开了一种基于深度强化学习的卫星抓取方法,包括:获取卫星对接环的RGB图片并标注卫星样本数据库;利用预先构建的卷积神经网络处理获取到的卫星对接环的RGB图片,得到对接环图像中的关键点的置信度图;利用PnP算法对关键点置信度图进行求解,得到卫星对接环的位姿参数;将卫星样本数据库数据输入特征融合网络,得到卫星对接环的识别分割结果;将卫星对接环的识别分割结果和卫星对接环的位姿参数输入预先训练好的深度强化学习算法,深度强化学习算法输出空间机械臂的最优抓取方案,响应于最优抓取方案,空间机械臂准确抓取卫星对接环。本发明能够提高了空间机器人完成卫星抓取的准确度。

Patent Agency Ranking