-
公开(公告)号:CN109489672B
公开(公告)日:2022-03-18
申请号:CN201910041363.2
申请日:2019-01-16
Applicant: 哈尔滨工程大学
IPC: G01C21/20
Abstract: 本发明提出了考虑海流与无人艇动力学影响的节能A星路径规划方法,步骤包括:(1)获取全局海图信息并网格化;(2)获取无人艇的起点和终点位置信息;(3)将当前位置设为起点位置,创建OPEN和CLOSD表;(4)计算在海流影响下的无人艇航速堆;(5)将当前位置存入OPEN表;(6)依次判断当前位置无人艇是否可以向周围八个方向行驶等。本发明在传统A星路径规划算法的基础上,结合海流影响下的无人艇动力学模型,设计考虑海流影响的能耗启发函数E_heurstic,并通过调整该函数的权值,实现对算法节能效率的动态调节,为无人艇在海面上长时间工作提供技术支持。
-
公开(公告)号:CN109186605B
公开(公告)日:2022-03-18
申请号:CN201811017297.7
申请日:2018-09-01
Applicant: 哈尔滨工程大学
Abstract: 一种基于UWB室内定位的无人艇船载测速测向方法,属于水面无人艇的室内定位信息获取技术领域。该方法基于UWB室内定位装置,充分考虑定位数据的传输特性,经历阈值处理和卡尔曼滤波器的初步过滤,利用速度解算算法F_outvel(i)得到稳定的速度输出;利用多个定位标签之间的耦合关系和无人艇自身几何特性,分别设计出艏向判定算法F_faigate(n,i)和艏向解算算法F_outfai(i),从而获得实时的艏向输出,上位机解算之后通过串口经由无线电实时将解算结果发送到目标无人艇,由无人艇上相应的无线电通信模块进行接收,形成信息交互。本发明设计的测速测向系统满足了无人艇运动控制点的需要、稳定、低成本、实时的要求;实现了无人艇的室内定位、速度、艏向多元信息的获取。
-
公开(公告)号:CN107544500B
公开(公告)日:2020-12-29
申请号:CN201710839806.3
申请日:2017-09-18
Applicant: 哈尔滨工程大学
IPC: G05D1/02
Abstract: 本发明提供一种考虑约束的无人艇靠泊行为轨迹规划方法,远端规划:1计算当前的期望艏向;2对期望艏向进行近障碍前瞻补偿;3更新无人艇位置;4判断无人艇是否到达远端规划目标点,是则结束远端规划转入近岸规划阶段,否则返回步骤1。近岸规划:1计算出指向第ii的初始值为1个虚拟码头的期望路径;2计算无人艇距离目标码头的距离,为当前期望速度添加码头约束;3更新无人艇位置;4判断无人艇是否抵达第i个虚拟码头,是则转步骤5,否则返回步骤2;5判断第i个虚拟码头是否为目标码头,是则规划完毕程序结束,否则令i=i+1,返回步骤1。本发明采用了改进人工势场法,为无人艇的自主靠泊控制问题提供便利。
-
公开(公告)号:CN108563113B
公开(公告)日:2020-11-20
申请号:CN201810602151.2
申请日:2018-06-12
Applicant: 哈尔滨工程大学
IPC: G05B13/02
Abstract: 本发明提供一种舰船用多回路无模型自适应艏向控制方法,本发明中控制系统采用外环导航控制器和内环角速度控制器的组合方式,外环导航控制器计算期望转艏角速度,内环MFAC角速度控制器完成角速度控制,间接实现航向控制的目的。实际应用中,角速度传感器噪声大,本发明利用控制系统历史输入输出数据进行角速度预测,通过卡尔曼滤波器对角速度数据滤波,作为内环角速度控制器的反馈输入,抑制角速度传感器的噪声,有效提高实际应用中的控制效果。本发明将MFAC控制理论引入舰船艏向控制领域,借助MFAC理论独特的自适应性及在线数据驱动优点,本发明提供的舰船用多回路无模型自适应艏向控制方法具有较强的自适应性。
-
公开(公告)号:CN109344717A
公开(公告)日:2019-02-15
申请号:CN201811017259.1
申请日:2018-09-01
Applicant: 哈尔滨工程大学
Abstract: 一种多阈值动态统计的深海目标在线检测识别方法,属于机器视觉领域。本发明利用水下机器人平台充分考虑深海区域环境信息,对卷积神经网络中锚点产生矩形种类及数目进行修正;训练模型时,在损失函数模块中添加最小稳定数值检测程序,在稳定的最小值处停止训练得到最佳模型;改变制作的数据集中训练、验证和检测的图片的数量比例,得到不同的训练结果,选择检测和识别准确度最高的比例选练出来的模型来添加到水下机器人的视觉模块中进行实时的目标检测识别;采用一种改进的多阈值动态开窗方式进行目标数量检测,每个阈值高度的检测带检测到不同的目标数量进行计数统计。本发明比传统目标检测识别方法更加快速和准确,对复杂环境的适应性更强。
-
公开(公告)号:CN109213162A
公开(公告)日:2019-01-15
申请号:CN201811017185.1
申请日:2018-09-01
Applicant: 哈尔滨工程大学
IPC: G05D1/02
Abstract: 一种多传感器信息融合的水面无人艇水池自主靠泊离岸方法,属于无人艇自主运动控制领域。本发明根据卷积神经网络训练的模型来对目标进行检测识别,识别出堤岸和指示灯,然后将测得的两者的距离和方位反馈给定位和测距更加准确的毫米波雷达,毫米波雷达通过对接收信息处理创建堤岸和指示灯关于距离的反射截面积函数,确定堤岸和指示灯,融合两者信息完成岸堤和指示灯的识别定位及测距任务,通过改变无人艇尾部的电磁铁的电流方向,与岸端靠泊装置磁铁相吸/相斥,完成靠泊/离岸。本发明通过水面无人艇携带的摄像头、毫米波雷达及岸端无人艇靠泊释放装置来自主完成水面无人艇的靠泊离岸操作,且结构清晰,逻辑性较强,易于编程实现。
-
公开(公告)号:CN108960421B
公开(公告)日:2022-03-18
申请号:CN201810577099.X
申请日:2018-06-05
Applicant: 哈尔滨工程大学
Abstract: 本发明提供了一种改进基于BP神经网络的水面无人艇航速在线预报方法。收集数据,挑选出需要的对预测速度有影响的四个体系指标;对所述的四个体系指标进行识别与处理和所有指标的无量纲化;对四个无量纲化后的体系指标数据进行主成分分析;对水面无人艇航速预测BP神经网络进行初始化;运用四个体系指标样本集对网络进行训练;对水面无人艇航速预测BP神经网络的泛化能力进行检验,进行分析并加以修正;通过修正后的水面无人艇航速预测BP神经网络,得到下一时刻无人艇的速度。本发明提供的水面无人艇的航速的预报方法结构清晰,逻辑性较强,易于编写计算机程序实现。本发明适用于水面无人艇航速预测及航迹规划,海面避障方面。
-
公开(公告)号:CN108520089B
公开(公告)日:2022-03-18
申请号:CN201810165097.X
申请日:2018-02-28
Applicant: 哈尔滨工程大学
IPC: G06F30/15 , G06F30/28 , G06F111/10 , G06F113/08 , G06F119/14
Abstract: 柔性连接的波浪滑翔器运动预测方法,具体步骤如下:(1)获取舵角信息(2)计算潜体受到的作用力(3)计算潜体受到的柔链拉力;(4)判断潜体受到垂向柔链拉力的方向,若为竖直向上,则返回(2),若为竖直向下或为零,则存储当前时刻状态信息作为(5)初始状态,进入(5);(6)计算浮体与潜体的距离,若距离小于柔链长度,则返回(5);若距离大于柔链长度,则存储当前时刻状态信息作为(1)初始状态,返回(1);若距离等于柔链长度,则进入(7);(7)判断浮体与潜体相对运动趋势,若为相互靠近或在二者连线方向相对静止,则返回(5);若为相互远离,则存储当前时刻状态信息作为1)初始状态,返回(1)。
-
公开(公告)号:CN109344717B
公开(公告)日:2021-10-19
申请号:CN201811017259.1
申请日:2018-09-01
Applicant: 哈尔滨工程大学
Abstract: 一种多阈值动态统计的深海目标在线检测识别方法,属于机器视觉领域。本发明利用水下机器人平台充分考虑深海区域环境信息,对卷积神经网络中锚点产生矩形种类及数目进行修正;训练模型时,在损失函数模块中添加最小稳定数值检测程序,在稳定的最小值处停止训练得到最佳模型;改变制作的数据集中训练、验证和检测的图片的数量比例,得到不同的训练结果,选择检测和识别准确度最高的比例选练出来的模型来添加到水下机器人的视觉模块中进行实时的目标检测识别;采用一种改进的多阈值动态开窗方式进行目标数量检测,每个阈值高度的检测带检测到不同的目标数量进行计数统计。本发明比传统目标检测识别方法更加快速和准确,对复杂环境的适应性更强。
-
公开(公告)号:CN108829113B
公开(公告)日:2021-05-28
申请号:CN201811017293.9
申请日:2018-09-01
Applicant: 哈尔滨工程大学
Abstract: 本发明涉及多机器人编队控制领域,具体涉及一种多机器人编队自适应零空间行为融合方法。根据机器人编队运动意图,将机器人运动过程分解,确定行为顺序步骤,然后建立运动模型步骤,结合3种运动行为的执行顺序进行求解,得到3种运动模型,之后根据机器人在运动过程中反馈得到的运动信息,解算得到增益系数,融合运动行为步骤,得到最终的速度和方向。相对于传统零空间行为融合方法,本发明使得求解出来的速度不受工况环境改变而改变,具有很好的自适应性,同时兼顾效率与性能,可以对速度进行有效控制,在运动规划上具有显著进步。
-
-
-
-
-
-
-
-
-