-
公开(公告)号:CN119550345A
公开(公告)日:2025-03-04
申请号:CN202411892699.7
申请日:2024-12-20
Applicant: 同济大学
IPC: B25J9/16
Abstract: 本发明涉及一种结合通用与专用模型的机器人动作生成方法及系统,其中,所述的方法包括:构建通用模型和专用模型,对所述的通用模型进行预训练,对预训练后的通用模型进行参数微调,并基于微调后的通用模型训练所述的专用模型;获取任务指令和实时视觉信息,将所述的任务指令和和实时视觉信息输入微调后的通用模型,输出动作序列和任务潜在特征;获取实时点云感知数据,并将所述的实时点云感知数据与所述的动作序列和任务潜在特征输入训练后的专用模型,输出机器人连续动作。与现有技术相比,本发明提高了机器人动作生成的速度以及增强了机器人动作生成的泛化性。
-
公开(公告)号:CN119204148A
公开(公告)日:2024-12-27
申请号:CN202411316397.5
申请日:2024-09-20
Applicant: 同济大学
IPC: G06N3/0895 , G06N3/084 , G06N3/0455 , G06N3/0464
Abstract: 本发明涉及一种面向具身智能机器人的跨模态自监督学习的感知预测方法,获取机器人的运动输入向量和感知输入向量并利用认知模型学习二者相关性,学习过程包括:获取机器人行为相关的运动输入向量和感知输入向量,通过分别进行自编码和解码,计算运动输入向量和感知输入向量对应的重构损失;基于自编码后的运动、感知输入向量,通过跨模态查询计算跨模态映射损失;基于运动感知输入向量对应的重构损失,以及跨模态映射损失,加权得到总损失,基于总损失对认知模型的参数进行更新,实现基于自监督学习的模态内隐式表达和模态间联系的建模。与现有技术相比,本发明可以有效提升具身智能机器人行为的自适应水平,具有自主发育和持续学习等优点。
-
公开(公告)号:CN116232854B
公开(公告)日:2024-10-11
申请号:CN202310210815.1
申请日:2023-03-07
Applicant: 同济大学
IPC: H04L41/0631 , H04L41/0677 , H04L43/12 , H04L43/08 , H04L43/04
Abstract: 本申请公开一种基于逻辑故障探针的CPS节点故障识别方法和系统,在该方法中,针对CPS节点集群中的每一CPS节点,基于为所述CPS节点所配置的信号采样模块进行采样,以确定相应的CPS节点状态数据;其中,所述CPS节点状态信息包括节点模态状态;基于各个CPS节点的节点标识信息,对所采样的各个CPS节点状态数据分别进行标识;根据经标识的各个CPS节点状态数据进行故障分析,以确定所述CPS节点集群中的每一CPS节点的故障状态结果。由此,提供了一套完整可行的CPS逻辑故障探针技术,能够对CPS系统中各个节点的故障特征进行自动化识别和定位,实现了对无人系统故障的自动化监测。
-
公开(公告)号:CN115017704B
公开(公告)日:2024-09-06
申请号:CN202210635206.6
申请日:2022-06-07
Applicant: 同济大学
IPC: G06F30/20 , G06Q50/02 , G06F119/14
Abstract: 本发明涉及无线传感器网络技术领域,特别是指一种动静态节点耦合的虫害重点区域感知的覆盖方法及系统,该方法包括:获取移动感知节点位置、障碍物位置、静态感知节点位置以及虫害重点区域位置;确定障碍物产生的第一斥力势场以及移动感知节点受障碍物的总斥力;确定静态感知节点产生的第二斥力势场以及移动感知节点受静态感知节点的总斥力;确定虫害重点区域产生的第三引力势场以及移动感知节点受虫害重点区域的引力;确定移动感知节点运动时受到的合力;基于合力的引导,完成面向森林虫害重点区域感知的动静态节点耦合覆盖。采用本发明,可以有效避免感知节点重复覆盖导致的资源浪费,从而完成动静态节点耦合的协同覆盖任务。
-
公开(公告)号:CN117792601B
公开(公告)日:2024-06-18
申请号:CN202311216208.2
申请日:2023-09-20
Applicant: 同济大学 , 上海同济工程项目管理咨询有限公司
Abstract: 本发明公开了一种区块链存储数据被非法篡改的识别方法,其采用分布式NTP网络授时的方式来识别区块链中的哪些存储数据被非法篡改,具体通过轮询对比区块链网络各节点存储的授时哈希值是否与分布式网络对应存储的各节点授时哈希值相同来识别数据是否被篡改。其可以及时识别出区块链中哪些数据被非法篡改,从而保障存储数据的安全性。
-
公开(公告)号:CN113763548B
公开(公告)日:2024-02-27
申请号:CN202110939893.6
申请日:2021-08-17
Applicant: 同济大学
Abstract: 本发明涉及一种基于视觉‑激光雷达耦合的贫纹理隧洞建模方法及系统,包括以下步骤:获取深度相机采集的点云信息、激光雷达采集的激光信息以及无人机的运动信息;基于激光信息生成栅格地图,基于运动信息得到无人机的位姿信息;采用贝叶斯融合方法将点云信息、栅格地图和位姿信息进行融合,得到地图模型;基于上一时刻的地图模型,通过特征匹配对最新的地图模型进行修正。与现有技术相比,本发明融合深度相机和激光雷达进行SLAM建图,充分利用激光雷达较大的范围信息和深度相机较为丰富的局部信息,互补提高了信息的精确度,使地图模型的建立更加接近于真实隧洞环境。
-
公开(公告)号:CN116992597A
公开(公告)日:2023-11-03
申请号:CN202311032138.5
申请日:2023-08-15
Applicant: 同济大学
IPC: G06F30/17 , G06F30/27 , G06N3/0499 , G06N3/084 , G06N3/086
Abstract: 本发明公开了一种基于GABP的航空发动机篦齿流量系数设计方法及装置,涉及航空发动机空气系统参数设计技术领域。包括:获取待设计流量系数的发动机篦齿数据;将发动机篦齿数据输入到构建好的遗传算法反向传播GABP神经网络;根据发动机篦齿数据以及GABP神经网络,得到航空发动机篦齿流量系数。本发明提供了基于GABP的航空发动机篦齿流量系数设计方法,为航空发动机空气系统设计提供新的解决方案,节省人力物力,缩短设计周期。
-
公开(公告)号:CN116643587A
公开(公告)日:2023-08-25
申请号:CN202310623947.7
申请日:2023-05-30
Applicant: 同济大学
IPC: G05D1/10 , G06N3/0499 , G06N3/092
Abstract: 本发明涉及一种基于信息素启发的多无人机自主覆盖方法,该方法包括以下步骤:步骤S1、构建多无人机自主收集自然灾害区域数据的覆盖场景图;步骤S2、基于信息素聚合模型,构建多无人机路径信息素地图,标记多无人机路径;步骤S3、根据多无人机自主覆盖任务,定义状态函数、动作函数及奖励函数,建立基于神经网络的多无人机自主覆盖模型并进行训练;步骤S4、采用训练好的多无人机自主覆盖模型进行多无人机自主覆盖。与现有技术相比,本发明具有高效节能、覆盖率高、适用性广的优点。
-
公开(公告)号:CN116359910A
公开(公告)日:2023-06-30
申请号:CN202310056537.9
申请日:2023-01-20
Applicant: 同济大学
Abstract: 本发明公开了一种低照度条件下快速移动目标多视角协同跟踪方法及装置,所述方法包括低照度条件下快速移动目标多视角跟踪算法和无人机集群协同跟踪算法;利用无人机搭载的毫米波雷达传感器、RGB视觉传感器与红外视觉传感器进行多源环境感知;通过三时空异构对齐算法将多源感知数据在时间和空间维度上归一化;将时空归一化后的多源融合感知数据输入多源融合感知特征计算网络进行当前帧下被追踪目标的世界坐标计算;将计算结果与上一帧的计算结果进行对比,判断被追踪目标在世界坐标系下的位置和移动方向的变化;通过集群通信共享被追踪目标的世界坐标信息,使用多智能体强化学习进行无人机集群的轨迹制定与更新,实现无人机集群协同跟踪。
-
公开(公告)号:CN116029899A
公开(公告)日:2023-04-28
申请号:CN202211688689.2
申请日:2022-12-27
Applicant: 同济大学 , 上海市养志康复医院(上海市阳光康复中心)
Abstract: 本发明公开了一种多传感器融合的服务机器人协同建图方法及系统,包括地面服务机器人和服务器,服务机器人包括深度视觉相机、惯性测量单元(IMU)、微型电脑(NUC)和通信模块,进行前端处理,包括:深度视觉相机获取图像数据和IMU获取瞬时速度信息并交由NUC,对图片数据进行特征提取和关键帧抽取,对IMU数据进行预积分;将预处理后的数据发送到后台服务器。后端服务器协同建图方法包括:服务机器人从同一地点出发并拍摄的Apriltag标签;获取各个服务机器人之间的转换矩阵;构建代价函数,对各个服务机器人发送来的数据进行后端优化;对各个服务机器人构建局部地图;根据转换矩阵,将其余服务机器人的地图坐标转换到其中一个服务机器人上,形成全局地图。
-
-
-
-
-
-
-
-
-