-
公开(公告)号:CN115272599A
公开(公告)日:2022-11-01
申请号:CN202210884356.0
申请日:2022-07-25
Applicant: 同济大学
Abstract: 本发明涉及一种面向城市信息模型的三维语义地图构建方法,包括:S1、设计和训练深度神经网络,同时提取输入图像的语义分割信息和SLAM特征;S2、将语义分割信息和SLAM特征输入至改进双目ORB‑SLAM3框架,进行相机位姿估计,并持续增量更新稀疏点云语义地图;S3、对S2中生成的稀疏点云语义地图,结合语义分割信息进行空间‑语义地图点聚类;S4、根据空间‑语义地图点聚类结果,重建超二次曲面物体形式的物体模型,并对物体模型持续增量优化;S5、基于重建的超二次曲面物体模型以及相机位姿估计,构建物体级三维语义地图;S6、基于双目立体匹配,获取RGB‑D图像,结合相机位姿估计和语义分割信息,构建稠密点云级三维语义地图。与现有技术相比,本发明的方法精度与鲁棒性更高、环境表征能力更强。
-
公开(公告)号:CN115272468A
公开(公告)日:2022-11-01
申请号:CN202210876769.4
申请日:2022-07-25
Applicant: 同济大学
Abstract: 本发明涉及一种面向智慧城市场景的视觉定位方法及系统,该方法包括:S1、移动智能体通过单目相机获取当前场景下的RGB图像并进行预处理;S2、将预处理得到的图像序列分别输入至PWC‑Net和Monodepth2网络,提取光流信息和深度信息;S3、将光流信息输入至GNN,得到精炼的对应点;S4、基于对应点和相机内参矩阵,求解相机位姿;S5、利用深度信息和相机位姿,合成光流以及输入图像序列对应的图像视图;S6、构造综合损失函数,对S2~S5构建的单目相机位姿估计模型进行训练;S7、采用训练好的单目相机位姿估计模型,进行相机位姿估计,完成移动智能体在环境中的定位。与现有技术相比,本发明通过引入GNN对光流进行精炼,提高了相机位姿估计的能力。
-
公开(公告)号:CN115170528A
公开(公告)日:2022-10-11
申请号:CN202210849020.0
申请日:2022-07-19
Abstract: 本发明公开了一种路面缺陷检测方法、系统、设备及存储介质,包括:获取若干历史路面图像数据,构建预训练样本;构建路面检测模型;所述路面检测模型包括骨干网络及分类器网络;基于优化后的自监督学习算法,利用预训练样本,对路面检测模型中的骨干网络进行预训练,得到预训练后路面检测模型;在预训练样本中随机获取部分样本数据,并对部分样本数据进行缺陷标注,得到微调训练样本;并对预训练后路面检测模型中的骨干网络和分类器网络的参数进行微调处理,得到训练后的路面缺陷检测模型;将待检测路面图像输入至训练后的路面缺陷检测模型中,输出结果,即得到所述的路面缺陷检测结果;本发明减小了路面缺陷检测模型的训练数据量,提高检测精度。
-
公开(公告)号:CN114812551A
公开(公告)日:2022-07-29
申请号:CN202210224196.7
申请日:2022-03-09
Applicant: 同济大学
Abstract: 本发明涉及一种室内环境机器人导航自然语言指令生成方法,包括以下步骤:S1、提取机器人摄像头采集到的全景图像的图像特征向量;S2、获取机器人当前的偏移角度并通过三角变换扩充数据维度后与图像特征向量进行拼接,形成对应的动作特征向量和全景图像特征向量;S3、采用多头注意力对动作特征向量和全景图像特征向量进行对齐和降维计算;S4、采用Transformer框架编码机器人的视觉和动作信息,输出预测的语言结果;S5、在解码器的输出部分添加额外的辅助监督任务,辅助机器人学习输出句子与输入动作的对应关系。与现有技术相比,本发明具有提升特征信息的利用程度、提升生成模型的精确度和泛化能力等优点。
-
公开(公告)号:CN113436240A
公开(公告)日:2021-09-24
申请号:CN202110690033.3
申请日:2021-06-22
Applicant: 同济大学
Abstract: 本发明涉及一种基于域适应的复杂环境下的单目图像深度估计方法,包括:S1、构建用于白天图像深度估计的原始深度估计网络;S2、筛选出图像的刚性区域,去除图像闭塞区域和动态物体所在位置区域带来的干扰,对原始深度估计网络进行一次优化;S3、训练原始深度估计网络;S4、采用领域自适应技术对原始深度估计网络进行二次优化得到目标深度估计网络;S5、将复杂环境下的单目图像输入至目标深度估计网络,估计图像的深度信息。与现有技术相比,本发明有效解决了在复杂环境下的深度估计不精确的问题,具有鲁棒性强,准确度高等优点。
-
公开(公告)号:CN111256622B
公开(公告)日:2021-06-04
申请号:CN202010075596.7
申请日:2020-01-22
Applicant: 同济大学
IPC: G01B11/26
Abstract: 本发明涉及一种对偶激光式机器人关节角度测量方法及角度测量装置,所述测量方法以地平面作为参考面构建激光‑平面测角模型,通过测量机器人关节处一对偶激光测距变化值,获得机器人关节的转动角度;所述测量装置包括对偶激光测距仪,安装于机器人上,且其中心轴与机器人的臂轴平行;计算机与所述对偶激光测距仪连接,在机器人关节运动过程中实时采集对偶激光测距仪左右两个激光测距值,并基于所述激光‑平面测角模型获得机器人关节的转动角度。与现有技术相比,本发明具有测量准确高、简单等优点。
-
公开(公告)号:CN108568817B
公开(公告)日:2021-05-11
申请号:CN201810204429.0
申请日:2018-03-13
Applicant: 同济大学
IPC: B25J9/16
Abstract: 本发明涉及一种基于贝塞尔曲线的Delta机器人轨迹连接控制方法,其特征在于,该方法建立有一曲线弧长模型,该曲线弧长模型表征贝塞尔曲线弧长与曲线参数的对应关系,根据给定轨迹参数及所述曲线弧长模型构建贝塞尔曲线,获得笛卡尔空间坐标,基于Delta机器人的逆运动学模型将笛卡尔空间坐标转化为Delta机器人的关节空间角度,实现Delta机器人轨迹连接。与现有技术相比,本发明具有提高Delta机器人末端运动平滑度、减小电机损耗等优点。
-
公开(公告)号:CN112405568A
公开(公告)日:2021-02-26
申请号:CN202011122471.1
申请日:2020-10-20
Applicant: 同济大学
Abstract: 本发明涉及一种仿人机器人跌倒预测方法,包括:在设定的预测间隔时间内,按照采样次数,依次分别获取仿人机器人对应的真实跌倒结果、惯性传感器采集数据以及质心位置数据,并计算得到仿人机器人在x和y方向的零力矩点ZMP;之后进行数据预处理,得到一个包含8维数据的机器人运动特征矩阵;重复上述步骤,得到多个预测间隔时间内的真实跌倒结果以及机器人运动特征矩阵;将多个机器人运动特征矩阵依次作为神经网络模型的输入,结合真实跌倒结果,对神经网络模型进行训练,得到仿人机器人跌倒预测模型;使用跌倒预测模型进行跌倒预测。与现有技术相比,本发明能够准确地预测是否跌倒以及跌倒方向,且能很好地适用于不同机器人的跌倒预测。
-
公开(公告)号:CN112183133A
公开(公告)日:2021-01-05
申请号:CN202010885831.7
申请日:2020-08-28
Applicant: 同济大学
Abstract: 本发明涉及一种基于ArUco码引导的移动机器人自主充电方法,包括步骤:对机器人设置充电触点以及单目相机,并在其运行环境中布局设有ArUco码的充电桩;建立环境地图,标记充电桩的位置及朝向;设置导航目标点、目标姿态,规划移动机器人的运动轨迹;识别充电桩上的ArUco码,获取其在图像上的角点坐标;将单目相机获取的机器人位姿与机器人自身提供的线速度、角速度相结合,获取精确移动机器人位姿;采用PID方法控制机器人前往充电桩进行对接,进行自主充电。与现有技术相比,本发明使用ArUco码引导稳定,在有光的前提下,能够达到100%的充电成功率;引导流畅,能够使机器人快速、平滑地对接充电桩。
-
公开(公告)号:CN112163453A
公开(公告)日:2021-01-01
申请号:CN202010863685.8
申请日:2020-08-25
Applicant: 同济大学
Abstract: 本发明涉及一种人机协作环境下的人员状态检测方法及系统,方法包括:协作工作空间人员图像获取步骤、人员疲劳状态检测步骤、人员集中程度检测步骤、人员离岗检测步骤和人员状态异常程度检测步骤,利用RGB相机获取的视频信息进行处理,通过机器视觉和机器学习技术,将整个人员状态检测任务分为三个部分:人员疲劳状态检测、人员集中程度检测和人员离岗检测,将三个部分的检测结果量化后输入FIS模糊推理系统,得到人员异常程度结果。与现有技术相比,本发明具有检测有效、快速、准确,可实时获取操作人员状态异常程度信息等优点。
-
-
-
-
-
-
-
-
-