一种接触点动态预测及优化方法、系统、设备及介质

    公开(公告)号:CN119888245A

    公开(公告)日:2025-04-25

    申请号:CN202411838699.9

    申请日:2024-12-13

    Applicant: 同济大学

    Abstract: 本发明涉及一种接触点动态预测及优化方法、系统、设备及介质,其中,所述的方法包括:提取文本特征、视觉特征,并获取深度图并将深度图转换为3D点云;将所述的文本特征与所述的视觉特征进行多模态对齐,基于多模态对齐结果赋予优先级提示;构建3D价值地图并初始化;生成视觉遮罩,并基于该视觉遮罩对初始化后的3D价值地图进行再处理;基于再处理后的3D价值地图选取当前最佳接触点,并获取当前最佳接触点的执行状态,根据执行状态对3D价值地图进行实时优化。所述的系统、设备及介质用于实现上述的方法。与现有技术相比,本发明提高了机器人操作的灵活性与精度。

    一种基于肌电信号的手臂末端刚度估计方法、装置及介质

    公开(公告)号:CN119719640A

    公开(公告)日:2025-03-28

    申请号:CN202411870012.X

    申请日:2024-12-18

    Applicant: 同济大学

    Abstract: 本发明涉及一种基于肌电信号的手臂末端刚度估计方法、装置及介质,方法步骤包括:在机械臂末端装配六维力传感器,设置机械臂的控制模式与刚度系数;将机械臂末端随机设置在设定原点的一定范围内,操作者手臂佩戴肌电信号传感器,并拖拽机械臂末端到原点位置,实时采集记录机械臂末端位置信息,六维力信息和肌电信号;基于机械臂末端位置信息和六维力信息数据,计算手臂末端刚度真实值;基于肌电信号以及手臂末端刚度真实值,训练手臂末端刚度映射网络;采集受试者的肌电信号,输入完成训练的手臂末端刚度映射网络,估计得到受试者手臂末端刚度。与现有技术相比,本发明削弱了采集数据的零偏,手臂末端刚度估计的准确度更高。

    一种人形机器人步态分析与识别及机器人控制方法

    公开(公告)号:CN118415626B

    公开(公告)日:2025-02-28

    申请号:CN202410506147.1

    申请日:2024-04-25

    Applicant: 同济大学

    Abstract: 本发明公开了一种人形机器人步态分析及机器人控制方法,涉及机器人控制技术领域。利用采集到的步态数据预训练步态分析与识别模型,用于评估人形机器人的步态参数,所述的步态参数包括:步态对称性、步态一致性、动作、步态相位以及步态健康程度;基于预训练的步态分析与识别模型实时估计出的步态参数。之后将预训练的步态分析与识别模型部署到人形机器人控制策略中;将步态分析与识别模型实时估计出的步态参数加入人形机器人控制策略的状态空间,由控制策略生成并执行相应的行为动作。本发明通过评估人形机器人在运动时的对称性、一致性,同时识别机器人的动作及其步态相位,以量化机器人的步态参数,以提高机器人在学习过程中的表现。

    一种基于仿人机器人具身感知的物体三维信息重构方法

    公开(公告)号:CN119338981A

    公开(公告)日:2025-01-21

    申请号:CN202411294059.6

    申请日:2024-09-14

    Applicant: 同济大学

    Abstract: 本发明涉及一种基于仿人机器人具身感知的物体三维信息重构方法,包括:步骤1、获取仿人机器人具身采集的单视角深度图像,进行预处理,得到物体的单视角三维点云,作为初始物体表面点云;步骤2、将初始物体表面点云输入视触融合物体重建网络中,得到初始物体形状估计结果;步骤3、采用双臂主动触觉探索策略对物体进行主动探索,得到触觉数据和进一步细化的物体表面点云,并将进一步细化的物体表面点云加入初始物体形状估计结果中,与触觉数据共同输入视触融合物体重建网络中进行进一步的物体重建,得到进一步细化的物体形状估计结果,重复执行步骤3,直至重建结束。与现有技术相比,本发明具有在复杂场景中机器人单视角情况下实现物体的精细化形状重建等优点。

    一种面向复杂退化环境的多模复眼感知方法及装置

    公开(公告)号:CN119295892A

    公开(公告)日:2025-01-10

    申请号:CN202411201846.1

    申请日:2024-08-29

    Applicant: 同济大学

    Abstract: 本发明涉及计算机视觉领域,特别是指一种面向复杂退化环境的多模复眼感知方法及装置。所述方法包括:通过多模复眼采集设备获取复杂退化环境下的多组图像,输入到训练好的特征点预测模型提取得到可见光图像以及红外图像的关键特征点信息;根据最近邻匹配技术、可见光图像以及红外图像的关键特征点信息生成可见光拼接图像以及红外拼接图像,输入到构建好的多模感知检测网络进行目标检测,得到多模感知检测结果。本发明结合了深度学习算法、最近邻匹配技术和图像拼接技术,通过构建特征点预测模型和多模感知检测网络,实现了多模复眼传感器中可见光和红外两种模态的目标检测感知任务。

    一种基于脉冲生成的机器人灵巧手仿生感知方法

    公开(公告)号:CN119188748A

    公开(公告)日:2024-12-27

    申请号:CN202411381410.5

    申请日:2024-09-30

    Applicant: 同济大学

    Abstract: 本发明涉及一种基于脉冲生成的机器人灵巧手仿生感知方法,包括:获取机器人灵巧手的传感单元采集的脉冲触觉数据;将脉冲触觉数据输入具有双通道的编码器中,提取时空特征并交互融合,完成对物体的感知识别,其中具有双通道的编码器包括时序子编码器、空间子编码器和多模态交互模块;完成对物体的感知识别的步骤包括:将脉冲触觉数据输入时序子编码器中提取时序特征;将脉冲触觉数据输入空间子编码器中提取空间特征;将时序特征和空间特征输入多模态交互模块中进行特征交互,得到时空特征,并采用concate操作进行处理,最终输出对物体的感知识别结果。与现有技术相比,本发明具有高效处理触觉认知任务等优点。

    一种基于多模融合的意图理解个性化人机交互方法

    公开(公告)号:CN119165958A

    公开(公告)日:2024-12-20

    申请号:CN202411305091.X

    申请日:2024-09-19

    Applicant: 同济大学

    Abstract: 本发明涉及一种基于多模融合的意图理解个性化人机交互方法,其特征在于为凝视、语音和手势三种信息源设置权重,来迎合用户偏好,在信息融合过程中,通过对三种信息源加权得到预融合信息源,将四种信息源组合融合估计用户意图,用户对结果进行反馈,记录该结果是否符合用户预期,每预测指定次数后,根据这些预测结果更新模态权重,同时将有效的意图指令发送给机器人,机器人完成相应任务,与现有技术相比,本发明具有高准确率、高可靠度的优点,此外本发明可以根据用户反馈周期性调整权重,能够迎合用户偏好,并且在特定场景下,可以通过权重的调节以适应不同场景各模态的适应,提高了人机交互的应用场景,提供个性化人机交互体验等优点。

    一种低照度环境下隧道多病害多尺度分割方法及系统

    公开(公告)号:CN119048473A

    公开(公告)日:2024-11-29

    申请号:CN202411168427.2

    申请日:2024-08-23

    Applicant: 同济大学

    Abstract: 本发明涉及计算机视觉技术领域,特别涉及一种低照度环境下隧道多病害多尺度分割方法及系统。方法包括:构建平滑锐化模块,对输入图像进行降噪锐化处理;在EfficientNetV2上进行改进并将其作为主干网络对图片进行特征提取;在逐步下采样的过程中添加自适应图像增强S型曲线,自适应的对特征图暗部进行增强、降低高光部分;把特征图放入改进的金字塔池化模块进行多尺度的特征提取,每种尺度的特征图利用希尔伯特曲线降维后进行自注意力机制的计算获取图像中的空间信息;通过通道注意力来融合多尺度特征图并上采样至原图大小得到病害分割图。本发明通过设计自适应S增强曲线并添加进分割网络中,解决无人机在黑暗隧道中生成图像质量受限导致分割精度不高的问题。

    一种基于速度映射带的人机交互安全控制方法

    公开(公告)号:CN119036442A

    公开(公告)日:2024-11-29

    申请号:CN202411126832.8

    申请日:2024-08-16

    Applicant: 同济大学

    Abstract: 本发明涉及一种基于速度映射带的人机交互安全控制方法,包括以下步骤:在轴向工作区域内,利用机械臂导纳控制方法实现机械臂人机交互拖动示教;根据人机交互范围以及机械臂的工作空间,确定机器人的工作安全区间,在工作安全区间边缘设置基于位置的限位;在工作安全区间内设置速度映射带,用于在机器人接近限位点时进行速度映射;根据目标变速曲线计算速度映射带内速度曲线,作为速度阈值;在速度映射带内,基于速度阈值和导纳控制方法产生的控制速度进行机械臂控制,在除速度映射带外的其他工作空间内,基于导纳控制方法产生的控制速度进行机械臂控制。与现有技术相比,本发明具有保证了安全性、提高了用户体验等优点。

    一种终身联邦学习的无人系统协同SLAM方法

    公开(公告)号:CN118941714A

    公开(公告)日:2024-11-12

    申请号:CN202410980345.1

    申请日:2024-07-22

    Applicant: 同济大学

    Abstract: 本发明涉及一种终身联邦学习的无人系统协同SLAM方法,包括:边端无人机布置传感器,并获取传感器采集的数据;基于传感器采集的数据,边端无人机实现激光惯性里程计估计,生成局部地图;激光雷达数据每隔一段时间积累为场景流,输入终身学习子模块完成模型训练;根据各边端节点的终身学习子模块的历史模型信息,基于强化学习动态调节各模型权重,在中心节点进行自适应模型融合,并由中心节点下发更新模型参数给边端节点;利用得到的模型输出点云特征,进行场景补全,并与局部地图拼接形成预测的全局地图。与现有技术相比,本发明在弱通联条件的地下环境中可以保证长时序内定位与建图的准确性、稳定性以及对通信故障的卓越鲁棒性。

Patent Agency Ranking