-
公开(公告)号:CN116222613A
公开(公告)日:2023-06-06
申请号:CN202211551667.1
申请日:2022-12-05
Applicant: 哈尔滨工业大学芜湖机器人产业技术研究院
Abstract: 本发明公开一种2d激光导航AGV控制中心标定方法,包括如下步骤:S1、构建2d激光点云地图;S2、采集标定数据:控制AGV绕控制中心做圆周运动至少一周时,实时收集2d激光传感器的位姿,放入旋转位姿集合pose_list1中,控制AGV控制中心做直线运动时,实时收集2d激光传感器的位姿,直行位姿集合pose_list2中;S3、基于直行位姿集合pose_list2计算2d激光传感器相对AGV控制中心的旋转角度angle,基于旋转位姿集合pose_list1计算2d激光传感器相对于AGV控制中心的平移量(tx,ty);(tx,ty,angle)为2d激光传感器相对于AGV控制中心的相对位姿变换。使用额外设备控制AGV执行标定动作,减少了AGV打滑造成的误差,极大改善了2d激光导航AGV控制中心的标定高精度。
-
公开(公告)号:CN115830270A
公开(公告)日:2023-03-21
申请号:CN202211584716.1
申请日:2022-12-09
Applicant: 哈尔滨工业大学芜湖机器人产业技术研究院
Abstract: 本发明公开一种SLAM中重复子图检测方法,包括如下步骤:S1、将在当前子图重叠距离阈值内的其他子图放入子图集中,并统计子图集中的子图总数目Q;S2、检测当前子图总数目Q是否小于等于设置的最小保留重叠子图数目Overlap_MIN,若检测结果为是,则执行步骤S1,若检测结果为否,则检测当前的重叠子图,对不是当前子图的重叠子图进行删除。本发明提出了一种针对栅格地图的SLAM建图过程中的重复子图检测方法,进而提高了重复子图的检测精度,减少了建图和定位过程中的重复约束,进而提高了建图和定位的效率。
-
公开(公告)号:CN115830139A
公开(公告)日:2023-03-21
申请号:CN202211552296.9
申请日:2022-12-05
Applicant: 哈尔滨工业大学芜湖机器人产业技术研究院
Abstract: 本发明公开一种用于栈板识别的3dTOF相机快速标定方法,包括如下步骤:启动3d TOF相机开始扫描,在扫描帧的数量大于设定的数量阈值后,停止扫描,将所有采集到的深度图存入集合depth_list中;基于集合depth_list中所有深度图来计算均值深度图,并对均值深度图进行二值化,形成二值图binary;在二值图binary提取叉车插齿中线;基于叉车插齿中线确定叉车中心,并计算叉车中心在相机坐标系中的位姿,完成3dTOF相机的标定。本方案标定时不需要提取叉车插齿左右两个平面,避免了叉车插齿由于制造工艺导致的左、右插齿平面不平行误差;标定时计算插齿中线与图像底边交点来确定叉车坐标系中心,相比与通过叉车插齿点云拟合中心来确定叉车坐标系中心,避免了点云拟合中心不稳定的误差。
-
公开(公告)号:CN112762937A
公开(公告)日:2021-05-07
申请号:CN202011550771.X
申请日:2020-12-24
Applicant: 哈尔滨工业大学芜湖机器人产业技术研究院
Abstract: 本发明公开了一种基于占据栅格的2D激光序列点云配准方法,包括如下步骤:S1、基于相邻两帧激光点云pointst‑1和pointst生成对应的栅格地图girdmapt‑1和girdmapt;S2、按照位移步长和角度步长在整个搜索窗口中遍历所有的候选位姿,基于候选位姿将t时刻的激光帧点云投影到栅格地图,将得分最高的候选位姿T(θ,tx,ty)作为初始位姿;S3、基于初始位姿生成t‑1时刻点云到t时刻点云的变换矩阵T′(θ′,t′x,t′y),基于变换矩阵T′(θ′,t′x,t′y)将t时刻的激光帧点云pointst投影到t‑1时刻的占据栅格地图girdmapt‑1中,将t‑1时刻的激光帧点云pointst‑1投影到t时刻的占据栅格地图girdmapt中;S4、对于序列点云pointst及pointst‑1中所有的激光点构建目标函数,将目标函数的最低代价对应位姿作为当前t时刻的位姿。对点云数目和质量要求低,计算速度快,匹配精度高。
-
公开(公告)号:CN112612862A
公开(公告)日:2021-04-06
申请号:CN202011550794.0
申请日:2020-12-24
Applicant: 哈尔滨工业大学芜湖机器人产业技术研究院
Abstract: 本发明公开了一种基于点云配准的栅格地图定位方法,包括:在初始位姿附近根据高斯模型随机分布粒子;将当前激光帧点云与栅格地图进行相关性匹配,将得分最高的候选位姿作为初始位姿;针对激光帧P1和P2在栅格地图中的投影点构建目标函数T*,迭代输出最优位姿;将最优位姿输送给里程计,里程计完成对所有粒子位姿的预测;根据粒子位置的观测数据,采用似然域计算粒子权重和粒子总权重;根据粒子权重对粒子进行筛选,复制高权重的粒子,舍弃低权重粒子,同时增加随机粒子,更新粒子分布,同时比较更新粒子簇最大权重;检测粒子簇中最大权重是否大于设定的权重阈值,若检测结果为是,则获得此时最佳的位姿。一定程度克服使用里程计时存在的打滑问题。
-
公开(公告)号:CN115877403A
公开(公告)日:2023-03-31
申请号:CN202211587023.8
申请日:2022-12-09
Applicant: 哈尔滨工业大学芜湖机器人产业技术研究院
Abstract: 本发明公开基于动态栅格地图的卡车车厢内机器人定位方法,包括如下步骤:建立激光SLAM栅格地图,标定车厢建图位姿;在车厢建图位姿处获取包含卡车轮廓的当前激光帧,获取卡车在栅格地图中的轮廓,同时更新占据栅格的占据概率值和二维正态分布参数;确定上一时刻的机器人位姿,以下一时刻的候选位姿将当前点云投影到栅格地图进行打分,最高打分对应的位姿即为机器人的粗定位位姿;构建粗定位位姿下的占据概率值和二维正态分布的目标函数,通过非线性优化获取机器人的精定位位姿。在卡车停放位置不固定且无定位标记物情况下,本发明明显改善了机器人在卡车车厢内定位精度不高的问题,且该方法不依赖标记物,不需要提取卡车车厢直线。
-
公开(公告)号:CN114199281A
公开(公告)日:2022-03-18
申请号:CN202111521844.7
申请日:2021-12-13
Applicant: 哈尔滨工业大学芜湖机器人产业技术研究院
IPC: G01C25/00
Abstract: 本发明公开的一种基于速度优化的多传感器联合标定方法,包括如下步骤:S1、m个传感器采集移动机器人行驶过程中的数据及时间戳,计算出传感器在采集时刻的速度;S2、通过插值法获取m个传感器在相同时间序列下的速度值,放入数据集Sensor_list中;S3、将不同传感器在基坐标系下的速度值相等转化成最小二乘问题,非线性求解最小二乘即可获取各个传感器相对于基坐标系的变换矩阵。本发明对待标定的传感器类型、性能和数量无要求,可扩展性强;对传感器自身的累计误差不敏感,标定精度高。
-
公开(公告)号:CN112710312A
公开(公告)日:2021-04-27
申请号:CN202011551246.X
申请日:2020-12-24
Applicant: 哈尔滨工业大学芜湖机器人产业技术研究院
Abstract: 本发明公开了一种融合距离残差和概率残差的激光SLAM前端匹配方法,具体包括如下步骤:S1、计算T时刻激光帧相对于(T‑1)时刻激光帧的距离残差;S2、对距离残与栅格概率地图在T时刻的概率残差进行非线性优化,得到T时刻的最优位姿;S3、基于T时刻最优位姿将T时刻激光帧投影至栅格概率地图,进行栅格概率地图的更新。本发明不依赖其它传感器和安装环境,降低了多传感器和改装环境的成本,提高了移动机器人定位的稳定性和精度。
-
公开(公告)号:CN116071432A
公开(公告)日:2023-05-05
申请号:CN202211551666.7
申请日:2022-12-05
Applicant: 哈尔滨工业大学芜湖机器人产业技术研究院
Abstract: 本发明公开一种2d激光雷达与3dTOF相机间标定方法,包括如下步骤:S1、控制激光叉车进行运动,改变激光叉车当前的位姿;S2、计算2d激光雷达和3dTOF相机的位姿,分别存入位姿集合pose_list2d和位姿集合pose_list3d中;S3、在位姿集合pose_list2d和位姿集合pose_list3d中的位姿数据达到数量阈值后,通过位姿集合pose_list2d和pose_list3d中的每一对位姿pose_list2d(x2d,y2d,θ2d)和pose_list3d(x3d,y3d,θ3d)构建一个非线性最小二乘问题,计算得到3dTOF相机相对于2d激光雷达的位姿变换tf(tx,ty,angle)。实现了2d激光叉车上2d激光雷达与栈板识别3dTOF相机之间高精度标定的同时,不依赖额外的设备,只依靠自然环境完成标定过程;此外,标定不需要激光叉车执行特定的动作,对移动机器人要求低;并利用2d重复扫描高精地图定位和3d点面匹配定位,定位精度的提升带来了标定精度的提升。
-
公开(公告)号:CN114187424A
公开(公告)日:2022-03-15
申请号:CN202111520615.3
申请日:2021-12-13
Applicant: 哈尔滨工业大学芜湖机器人产业技术研究院
Abstract: 本发明公开的基于直方图和面特征匹配的3D激光SLAM方法,包括如下步骤:S1、构建3D激光雷达当前激光帧的直方图HISTt;S2、基于NUM个角度候选项旋转直方图HISTt,获取旋转后的直方图HISTtnum;S3、将直方图HISTtnum与上一时刻直方图HISTt‑1匹配,得分最高的角度候选项yaw∧作为当前时刻的姿态初值;S4、提取当前激光帧的平面特征点集;S5、基于当前激光帧及上一激光帧帧的面特征匹配来优化姿态初值的位姿增量;S6、基于累计的平面特征点云地图进行二次约束,获得激光雷达当前的位姿。通过直方图确定机器人的初始姿态,基于帧间面特征约束,地图面特征二次约束来优化机器人的姿态,并确定机器人的位置,提高现机器人室内室外定位的高精度和稳定性实。
-
-
-
-
-
-
-
-
-