-
公开(公告)号:CN119620103A
公开(公告)日:2025-03-14
申请号:CN202411619174.6
申请日:2024-11-13
Applicant: 同济大学
Abstract: 本发明提供一种基于移固协同纠偏的地下贫纹理空间高精度建图方法,涉及地图构建技术领域,方法包括:获取基于地下贫纹理空间结构确定的传感器节点的传感器数据;计算无人机初始位置数据;通过无人机接收传感器数据,并结合无人机初始位置数据和无人机激光雷达探测数据生成无人机位置数据;通过分段式移固协同里程计校正无人机位置数据;获取用于描述地下贫纹理空间结构的点云数据;将传感器数据、无人机初始位置数据、矫正后的无人机位置数据和点云数据进行数据融合,得到融合数据,并将各个传感器节点作为建图过程中的特征点,建立地下贫纹理空间的高精度地图。本发明可以精确建立地下贫纹理空间的高精度图,有效提升地下空间管理和应用的效率。
-
公开(公告)号:CN119550345A
公开(公告)日:2025-03-04
申请号:CN202411892699.7
申请日:2024-12-20
Applicant: 同济大学
IPC: B25J9/16
Abstract: 本发明涉及一种结合通用与专用模型的机器人动作生成方法及系统,其中,所述的方法包括:构建通用模型和专用模型,对所述的通用模型进行预训练,对预训练后的通用模型进行参数微调,并基于微调后的通用模型训练所述的专用模型;获取任务指令和实时视觉信息,将所述的任务指令和和实时视觉信息输入微调后的通用模型,输出动作序列和任务潜在特征;获取实时点云感知数据,并将所述的实时点云感知数据与所述的动作序列和任务潜在特征输入训练后的专用模型,输出机器人连续动作。与现有技术相比,本发明提高了机器人动作生成的速度以及增强了机器人动作生成的泛化性。
-
公开(公告)号:CN119526414A
公开(公告)日:2025-02-28
申请号:CN202411871795.3
申请日:2024-12-18
Applicant: 同济大学
IPC: B25J9/16
Abstract: 本发明涉及一种机器人动作生成模型训练方法和动作生成方法,模型训练步骤包括:构建汽车线束操作数据集,并提取人体姿态;基于所述的数据集和人体姿态构建指令集;预训练运动分词器;获取文本‑动作词汇表;基于所述的数据集、指令集和文本‑动作词汇表预训练语言模型;构建操作数据集,基于操作数据集对预训练后的语言模型进行微调,完成训练。所述的生成方法利用经过模型训练方法训练好的模型输出人形动作序列,并将人形动作序列重定向于机器人上完成机器人动作生成。与现有技术相比,本发明提高了生成模型的泛用性,还可生成更符合汽车线束操作的机器人动作,提高了机器人操作汽车线束的灵活性。
-
公开(公告)号:CN118832572B
公开(公告)日:2025-02-28
申请号:CN202410784417.5
申请日:2024-06-18
Applicant: 同济大学
IPC: B25J9/16 , G06N3/0464 , G06N3/0442 , G06N5/04 , G06N3/0455 , G06V10/40
Abstract: 本发明涉及一种机器人视觉语言导航的动作自适应方法和系统,包括:确定机器人可行动作空间数值范围,并生成随机动作;基于随机动作与环境交互所得变化,利用机器人动作影响自编码模块得到动作嵌入向量;基于动作嵌入向量,对比数据集中特定动作并计算差异,确定当前执行动作及对应的语义含义;基于确定性的动作与环境交互所得,利用交叉模态注意力特征提取模块,得到机器人视觉语言多模态特征;基于机器人视觉语言多模态特征,作为扩散策略决策模块条件,迭代推理出机器人下一步执行动作;对机器人状态进行更新,直至到达目标结束本次导航任务。与现有技术相比,本发明具有增强机器人动作自适应的鲁棒性和准确性等优点。
-
公开(公告)号:CN118071934B
公开(公告)日:2025-02-28
申请号:CN202410368408.8
申请日:2024-03-28
Applicant: 同济大学
IPC: G06T17/00 , G06V10/80 , G06N3/0464 , G06N3/0455
Abstract: 本发明涉及一种基于单视角RGBD融合网络的手物交互重建方法,步骤包括:将手物交互的对齐RGBD图像的深度图转化为点云,并应用特征编码器从中提取RGB特征和点特征;融合所提取的RGB特征和点特征,生成密集RGBD特征;采用SDF特征编码器将密集RGBD特征生成手物形状编码,通过手物几何特征估计模块预测手物的姿态参数和物体位置;通过几何傅里叶特征编码模块处理基于每个三维查询点相对于手腕的旋转和平移以及物体的平移,获得手物几何编码;采用手和物体SDF解码器利用手物形状编码和手物几何编码估计每个三维查询点的SDF重建手和物体形状。与现有技术相比,本发明更充分融合了RGB和深度信息,实现了几何精细的手物交互重建。
-
公开(公告)号:CN119295657A
公开(公告)日:2025-01-10
申请号:CN202411350420.2
申请日:2024-09-26
Applicant: 同济大学
IPC: G06T17/00 , G06V20/64 , G06V10/764 , G06V10/80 , G06V10/82 , G06N3/0455 , G06N3/0464 , G06N3/08
Abstract: 本发明涉及一种仿人类思维过程的点云重建方法,方法具体包括:S1、获取物体单视角三维点云P;S2、对三维点云P进行体素化处理,得到体素网格V;S3、使用编码器对点云P和体素网格V进行编码,得到点云特征Fp和体素特征Fv;S4、使用点‑体素融合模块对点云特征Fp和体素特征Fv进行融合,得到点‑体素融合特征Ff;S5、利用类别解码器对点‑体素融合特征Ff进行类别解码,得到分类结果L;S6、使用类别引导模块对分类结果L和点‑体素融合特征Ff进行融合,得到类别融合特征Fc;S7、使用金字塔解码器对类别融合特征Fc进行解码,得到多尺度完整点云Pc。与现有技术相比,本发明具有提高点云重建精度等优点。
-
公开(公告)号:CN119204148A
公开(公告)日:2024-12-27
申请号:CN202411316397.5
申请日:2024-09-20
Applicant: 同济大学
IPC: G06N3/0895 , G06N3/084 , G06N3/0455 , G06N3/0464
Abstract: 本发明涉及一种面向具身智能机器人的跨模态自监督学习的感知预测方法,获取机器人的运动输入向量和感知输入向量并利用认知模型学习二者相关性,学习过程包括:获取机器人行为相关的运动输入向量和感知输入向量,通过分别进行自编码和解码,计算运动输入向量和感知输入向量对应的重构损失;基于自编码后的运动、感知输入向量,通过跨模态查询计算跨模态映射损失;基于运动感知输入向量对应的重构损失,以及跨模态映射损失,加权得到总损失,基于总损失对认知模型的参数进行更新,实现基于自监督学习的模态内隐式表达和模态间联系的建模。与现有技术相比,本发明可以有效提升具身智能机器人行为的自适应水平,具有自主发育和持续学习等优点。
-
公开(公告)号:CN119065398A
公开(公告)日:2024-12-03
申请号:CN202411084350.0
申请日:2024-08-08
Applicant: 同济大学
Abstract: 本发明涉及一种分布式无人机协同防御意图协调方法及训练方法,包括:将多无人机协同防御问题建模为分布式马尔可夫过程,使用深度强化学习训练底层一对一策略,作为本发明关注的目标分配器的底层策略;采用基于自注意力机制的、结合冲突消解机制的神经网络作为集中式目标分配器,用强化学习训练得到具备冲突消解能力的集中式策略;构建基于注意力机制的可扩展分布式意图融合;基于集中式策略生成的数据,采用模仿学习训练分布式目标分配。与现有技术相比,本发明具有解决了无人机数量的可扩展性问题,从而具备更好的泛化性能,显著提高在分布式情形下的目标分配冲突消解能力,进而提高整体性能等优点。
-
公开(公告)号:CN115723175B
公开(公告)日:2024-12-03
申请号:CN202211428193.1
申请日:2022-11-15
Applicant: 同济大学
Abstract: 本发明公开了一种基于电子皮肤的太极推手机械臂,其至少包含感受单元、执行单元、控制单元以及决策单元,感受单元为一种可以覆盖于机械臂表面的模块化电子皮肤,可以感知接触力、接近度、温度、加速度等多种物理量;执行单元为机械臂内的电机,可以根据上层的控制信号驱动机械臂完成对应的太极推手动作;控制单元根据决策单元的推理和分析,产生相应的控制信号,发送给执行单元;决策单元内置触觉感知融合算法,其利用多传感器融合算法融合电子皮肤所接收到的数据,推断出人类手臂进行太极推拿时的动作轨迹和意图,本发明可以实现机械臂与人类紧密配合完成太极推拿的一系列动作,在实现安全交互的前提下,满足特定人群太极推手的需求。
-
公开(公告)号:CN118915802A
公开(公告)日:2024-11-08
申请号:CN202410971117.8
申请日:2024-07-19
Applicant: 同济大学
IPC: G05D1/49 , G05D109/12
Abstract: 本发明涉及一种腿部受损的四足机器人运动控制方法,针对四足机器人构建CPG节律控制器;当四足机器人腿部发生故障时进行四足机器人的正常以及腿部受损四足机器人运动策略进行切换;其中,四足机器人运动策略采用双层强化学习框架:高层强化学习根据当前机器人状态和参考命令生成CPG参数,并生成关节参考轨迹;底层强化学习对生成的参考关节轨迹进行微调,得到目标关节角度;累加关节参考轨迹与目标关节角度,并进一步计算得到当前机器人关节扭矩指令。本发明使机器人能够模仿正常运动及腿部受伤时的步态性质,并通过双层PPO强化学习模型对CPG的参数以及关节角度进行调节,解决了腿部受损四足机器人行走鲁棒性和环境适应性的难题。
-
-
-
-
-
-
-
-
-