基于双目与超声波融合的无人机三维避撞方法及系统

    公开(公告)号:CN106802668B

    公开(公告)日:2020-11-17

    申请号:CN201710084896.X

    申请日:2017-02-16

    Abstract: 本发明提供了一种基于双目与超声波融合的无人机三维避撞方法及系统,包括:通过双目摄像头和超声波传感器探测环境中的障碍物;对三维空间进行网格划分,分析每一帧得到的局部双目点云落在网格中的概率,通过障碍物地图融合模块对局部双目点云进行坐标系转换后生成障碍物地图;采用A*算法遍历无人机从起点到终点的所有可能的路径点,选择出最优路径。本发明结合双目摄像头和超声波传感器能够检测出多种不同材质的障碍物,提高了系统的鲁棒性和无人机的安全性;并基于垂直方向采样的2.5维A*避撞技术来计算最优路径,通过控制旋翼无人机按照得到的最优路径飞行,大大降低传统方法的计算时间,提高了无人机的飞行效率。

    非直达径卫星导航信号识别方法、系统及介质

    公开(公告)号:CN111856526A

    公开(公告)日:2020-10-30

    申请号:CN202010724432.2

    申请日:2020-07-24

    Abstract: 本发明提供了一种非直达径卫星导航信号识别方法、系统及介质,包括:步骤S1:样本数据处理单元(111)接收采集得到的样本数据,记为采集信号数据,依据伪距残差值以及多普勒误差绝对值对于样本数据中的LOS和NLOS信号进行判定,获得多径类别判定结果;步骤S2:在每一个历元时刻,初始化单元(112)负责接收待检测卫星导航信号,获得初始化单元(112)的输入信号参数,包括各个卫星信号的伪距、积分多普勒和载噪比参数信息,其均可在信号的跟踪环路中测量得到。本发明基于信号特征参数对于非直达径卫星导航信号进行识别,通过信号强度衰减,伪距载波差变化率和伪距残差的后验概率分布作为特征,避免增加额外的设备成本。

    基于特征点辅助匹配的虚拟宽视角视觉里程计方法及系统

    公开(公告)号:CN111210463A

    公开(公告)日:2020-05-29

    申请号:CN202010042019.8

    申请日:2020-01-15

    Abstract: 本发明提供了一种基于特征点辅助匹配的虚拟宽视角视觉里程计方法及系统,包括:原图像通过常速运动模型进行运动预测,预测目前相机的位姿,得到新图像,并对原图像进行特征点选取;根据提取的特征点,通过光流法对原图像与新图像进行特征匹配,得到相同一点在两个图像中的匹配关系;利用单应性矩阵和/或基础矩阵进行异常匹配点对剔除,再使用PnP算法和从历史关键帧中获取的深度信息计算出当前相机的位姿;计算整体所有梯度点的像素误差,根据得到的当前相机的位姿通过高斯牛顿下降法进行优化光度误差,最终得到优化好的相机精准位置姿态;通过本发明可以有效增强在相机旋转的时候的特征点跟踪效果,使得系统整体更加鲁棒。

    基于直接法的视觉里程计方法、系统及存储介质

    公开(公告)号:CN110375765A

    公开(公告)日:2019-10-25

    申请号:CN201910575743.4

    申请日:2019-06-28

    Abstract: 本发明提供了一种基于直接法的视觉里程计方法、系统及介质,包括:亮度稳定步骤:在高动态亮度变换环境下,使用对数图像增强方法使得场景中的亮度趋于稳定,提高对梯度信息的提取;加快优化收敛步骤:在快速旋转以及高速运动情况下,使用若干显著的梯度点和三角剖分算法生成深度预测面,有效给出点云的初始化深度,降低深度优化次数,加快优化收敛。本发明能够克服传统直接法在亮度巨变和快速旋转时无法正常工作的问题,可以用于无人机、无人车等自主导航机器人的导航算法上,可以用于在自主导航、探索、侦查等任务中提供自身的位置信息。

    一种基于TOF相机数据的平面拟合方法

    公开(公告)号:CN110223336A

    公开(公告)日:2019-09-10

    申请号:CN201910445779.0

    申请日:2019-05-27

    Abstract: 本发明提供了一种基于TOF相机数据的平面拟合方法,包括以下步骤:S1:将TOF相机采集的深度图的数据转换成点云的数据,所述深度图的像素点与所述点云在映射过程保留对应编号;S2:计算所述深度图的全图各像素点对应的点云的主方向向量,并确定所要拟合的平面上的一个采样点及其对应的主方向向量;S3:从所述采样点出发通过迭代法逐步扩散,找到全部与所述采样点对应的主方向向量间关系满足预设条件的待拟合像素点,并将所述待拟合像素点每次迭代更新为新的采样点后继续迭代扩散;S4:连接所有符合预设要求的待拟合像素点拟合成为平面。该方法每个步骤在运算量上都进行了优化,能够在3D深度相机输出视频序列上实时完成。

    基于深度神经网络的矢量量化系统及方法

    公开(公告)号:CN106203624B

    公开(公告)日:2019-06-21

    申请号:CN201610466518.3

    申请日:2016-06-23

    Abstract: 本发明提出一种基于深度神经网络的矢量量化系统及方法,包括:归一化预处理模块,将原始数据通过归一化数据进行归一化处理,输出归一化后的预处理数据;矢量量化编码模块,用以接收预处理数据及码本,并通过码本对所述预处理数据进行矢量量化编码,输出编码数据;神经网络反量化模块,通过深度神经网络对编码数据进行解码反量化,输出解码数据;反归一化后处理模块,通过归一化数据对解码数据进行反归一化处理,输出反归一化后的还原原始数据;及神经网络训练模块,通过归一化预处理后的预处理训练数据和编码训练数据,进行神经网络的训练,输出深度神经网络至神经网络反量化模块中。本发明能有效解决高维度信号矢量量化的量化误差较大的问题。

    基于行人识别的室内行人寻迹方法、装置、计算机设备及存储介质

    公开(公告)号:CN109753901A

    公开(公告)日:2019-05-14

    申请号:CN201811573978.1

    申请日:2018-12-21

    Abstract: 本发明公开了一种基于行人识别的室内行人寻迹方法,该种室内行人寻迹方法首先判断场景图像中行人的身份信息,在确定后该行人的身份信息之后,再使用深度学习的方法判断标记有该身份信息的行人全身图与连续的场景图像中的行人是否为同一人,如果为同一人则求出该行人的像素坐标,之后将该像素坐标转换为室内的世界坐标,对室内的世界坐标进行曲线拟合即可得到室内行人的轨迹,利用深度学习的算法,行人识别及定位的精度高,运算量小,本方法也不需要行人随身携带用于辅助定位的设备(如移动传感器等)。本发明还提供了一种基于行人识别的室内行人寻迹装置、计算机设备及存储介质。

Patent Agency Ranking