-
公开(公告)号:CN116736845B
公开(公告)日:2025-04-18
申请号:CN202310598930.0
申请日:2023-05-25
Applicant: 浙江三锋实业股份有限公司 , 浙江工业大学
Abstract: 一种用于智能割草机器人的路径规划方法和系统,其方法包括:S1、根据待割草区域内的环境信息生成一种语义地图,所述语义地图包含边界信息、天气信息以及坡度信息等;S2、在所述语义地图上,根据智能割草机器人的传感器信息对机器人进行实时定位;S3、采用预设算法在所述语义地图上进行路径规划,为智能割草机器人规划出一条安全、高效的运动路线;S、在智能割草机器人运行的过程中,根据预定范围内环境的变化,重复步骤S2‑S3,直到机器人回到充电桩。
-
公开(公告)号:CN116719037B
公开(公告)日:2025-05-09
申请号:CN202310598913.7
申请日:2023-05-25
Applicant: 浙江三锋实业股份有限公司 , 浙江工业大学
IPC: G01S15/86 , A01D34/00 , H04N23/50 , G06T7/80 , G06T7/277 , G06V10/80 , G06T7/246 , G01S15/931 , G01C21/16 , G01C22/00 , G01S19/45 , G01S19/47 , G01V9/00 , G01J1/42
Abstract: 一种用于智能割草机器人的环境感知方法和系统,所使用的装置包括在智能割草机器人上安装相机、惯性测量单元IMU、全球导航卫星系统GNSS、里程计、水滴传感器、光敏传感器、超声波传感器,包括以下步骤:S1、智能割草机器人获取环境雨水情况,与设定的阈值比较判断是否继续工作;S2、智能割草机器人获取环境光强并采用相机和超声波模块进行融合实现环境感知与目标检测和跟踪;S3、智能割草机器人通过基于卡尔曼滤波的融合定位算法获取当前自身高精度位置信息;S4、通过步骤S2和步骤S3获取的信息进行场景判断;S5、以对应的场景信息作为决策系统的输入进行决策。本发明提高了低光照下的障碍物感知能力和定位精度。
-
公开(公告)号:CN116736845A
公开(公告)日:2023-09-12
申请号:CN202310598930.0
申请日:2023-05-25
Applicant: 浙江三锋实业股份有限公司 , 浙江工业大学
IPC: G05D1/02
Abstract: 一种用于智能割草机器人的路径规划方法和系统,其方法包括:S1、根据待割草区域内的环境信息生成一种语义地图,所述语义地图包含边界信息、天气信息以及坡度信息等;S2、在所述语义地图上,根据智能割草机器人的传感器信息对机器人进行实时定位;S3、采用预设算法在所述语义地图上进行路径规划,为智能割草机器人规划出一条安全、高效的运动路线;S、在智能割草机器人运行的过程中,根据预定范围内环境的变化,重复步骤S2‑S3,直到机器人回到充电桩。
-
公开(公告)号:CN116736359A
公开(公告)日:2023-09-12
申请号:CN202310598936.8
申请日:2023-05-25
Applicant: 浙江三锋实业股份有限公司 , 浙江工业大学
Abstract: 一种智能割草机器人定位方法和系统,其方法包括:S1:接受卫星数据,通过单点定位和双差分模型处理观测数据获得位置和速度;S2:对IMU和GNSS进行联合初始化,IMU获取原始数据,通过误差模型估计加速计和陀螺仪偏置,通过状态方程定义姿态、速度和位置;S3:获取图像,通过角点检测和KLT光流跟踪获得连续多张图片的约束关系获取相机的位姿;S4:将前步骤S1、S2、S3的三个位姿估计进行时间同步,然后送入多状态约束卡尔曼滤波器进行更新,得到新的姿态、速度和位置;S5:根据滤波所得的智能割草机器人位置,速度和姿态定位结果规划路径。本发明引入GNSS与IMU和视觉信号进行融合,得到高精度的全局定位信息,在信号不稳定时仍能得到较好的定位信息。
-
公开(公告)号:CN116719037A
公开(公告)日:2023-09-08
申请号:CN202310598913.7
申请日:2023-05-25
Applicant: 浙江三锋实业股份有限公司 , 浙江工业大学
IPC: G01S15/86 , A01D34/00 , H04N23/50 , G06T7/80 , G06T7/277 , G06V10/80 , G06T7/246 , G01S15/931 , G01C21/16 , G01C22/00 , G01S19/45 , G01S19/47 , G01V9/00 , G01J1/42
Abstract: 一种用于智能割草机器人的环境感知方法和系统,所使用的装置包括在智能割草机器人上安装相机、惯性测量单元IMU、全球导航卫星系统GNSS、里程计、水滴传感器、光敏传感器、超声波传感器,包括以下步骤:S1、智能割草机器人获取环境雨水情况,与设定的阈值比较判断是否继续工作;S2、智能割草机器人获取环境光强并采用相机和超声波模块进行融合实现环境感知与目标检测和跟踪;S3、智能割草机器人通过基于卡尔曼滤波的融合定位算法获取当前自身高精度位置信息;S4、通过步骤S2和步骤S3获取的信息进行场景判断;S5、以对应的场景信息作为决策系统的输入进行决策。本发明提高了低光照下的障碍物感知能力和定位精度。
-
公开(公告)号:CN116630593A
公开(公告)日:2023-08-22
申请号:CN202310598908.6
申请日:2023-05-25
Applicant: 浙江三锋实业股份有限公司 , 浙江工业大学
Abstract: 一种面向智能割草机器人的视觉目标检测方法及系统,其方法包括:采用光学防抖成像方法,从智能割草机器人上获取智能割草机器人前方的一个图像序列;根据步骤A中所获取的图像序列,对图像进行预处理;通过基于序列信息的语义分割方法将步骤B中预处理的图像进行分割;通过基于帧差法的背景建模、目标检测算法对步骤C中分割后的图像实现目标检测。本发明能够改善智能割草机器人成像画质,从而提高语义分割、目标检测效果。
-
公开(公告)号:CN116630403A
公开(公告)日:2023-08-22
申请号:CN202310598901.4
申请日:2023-05-25
Applicant: 浙江三锋实业股份有限公司 , 浙江工业大学
IPC: G06T7/70 , G06T7/11 , G06T17/05 , G06T7/50 , G06T7/90 , G06F18/23 , G06F16/901 , G06F16/29 , G06F16/23 , G06F18/25
Abstract: 一种用于割草机器人的轻量级语义地图构建方法,包括:设计一种轻量级语义SLAM方法,使用RGB相机识别目标,并使用深度相机测量深度信息,进而对目标进行语义提取和三维位置估计;建立语义地图和拓扑地图,将两者提取的信息融合一起,融合图为目标搜索提供目标位置信息,并利用相机采集的信息不断对地图进行更新;基于卡尔曼滤波对GPS提供的位置信息和IMU获取的位姿数据进行融合定位,精准确定割草机器人自身位置;采用随机探索树对割草机器人的工作区域进行探索;采用无监督区域划分方法将割草机器人的工作区域划分为多个子区域;对环境进行圈定,并将目标离子区域中心距离的远近,归属于某个子区域,提高目标搜索任务的性能。
-
公开(公告)号:CN119179991B
公开(公告)日:2025-04-15
申请号:CN202411688112.0
申请日:2024-11-25
Applicant: 浙江工业大学
IPC: G06F18/2433 , G06F18/213 , G06N3/0455 , G06N3/0464 , G06N3/048 , G06N3/08 , G06F18/20 , G06N7/01
Abstract: 本发明属于旋转机械故障检测技术领域,公开了一种基于非侵入式量测的水轮机可解释故障检测方法,包括利用基于小波核卷积自编码器的压缩网络,获得低维时序依赖特征表示以及重构特征;根据重构特征得到重构输入样本,并计算样本重构误差;利用单独的估计网络分别预测混合隶属度矩阵与状态转移概率矩阵,根据预测值估计高斯混合隐马尔可夫模型的参数,并计算低维时序依赖特征表示的能量;基于样本重构误差、低维时序依赖特征表示的能量以及罚函数构建联合优化损失函数,并基于联合优化损失函数更新压缩网络和估计网络的参数进行训练。本发明增强了模型的可解释性,并且提高了故障检测在变工况条件下的泛化能力和适用性。
-
公开(公告)号:CN119199928B
公开(公告)日:2025-04-01
申请号:CN202411254600.0
申请日:2024-09-09
Applicant: 浙江工业大学
Abstract: 本发明公开了一种基于整数约束型高斯滤波的RTK定位方法,步骤1,获取移动站数据:从GNSS接收机获取原始观测数据;步骤2,获取基准站数据:从通讯链路获取基准站或者虚拟CORS站的差分观测数据;步骤3,数据准备:通过卫星广播星历计算卫星当前位置、钟差等对上述步骤1、步骤2中获取的观测数据进行单差、双差处理,得到处理后的双差量测方程;步骤4,建立系统模型;步骤5,整数约束型渐进高斯滤波;步骤6,更新状态;本发明方法通过构造整数约束下的渐进高斯滤波框架,结合贝叶斯推理与同伦方法优势,提出了一种基于整数约束渐进高斯滤波的RTK定位方法,通过构建渐进步长逐步融合信息,避免了初值选取问题对LAMBDA算法带来的影响,同时降低了不良的浮点解对模糊度固定带来的影响,进一步提升了模糊度固定的成功率。
-
公开(公告)号:CN119580181A
公开(公告)日:2025-03-07
申请号:CN202411517239.6
申请日:2024-10-29
Applicant: 浙江工业大学
Abstract: 本发明公开了基于双目视觉的隔震结构支座三维形变监测方法及系统,包括:采用双目相机分别采集左右相机视角下的监测场景;采用相机标定得到的相机内外参数对监测图像对进行图像去畸变以及立体矫正;采用目标检测算法,对矫正图像进行靶标目标检测;根据靶标检测框坐标,计算裁剪框并对左右图像中的靶标区域进行裁剪;对所述裁剪图像对进行立体匹配;根据视差图中各像素的视差值,通过三角测量法计算靶标的深度信息,最终生成靶标的三维稠密点云;对上一步得到的靶标三维稠密点云进行优化处理,得到优化后的点云;用迭代最近点算法求解两点云的刚体变换矩阵;本发明可实现降低橡胶支座三维位姿形变监测的成本,有效提高鲁棒性以及精度。
-
-
-
-
-
-
-
-
-