一种大尺寸目标物的组合式测量方法

    公开(公告)号:CN110686592A

    公开(公告)日:2020-01-14

    申请号:CN201910832151.6

    申请日:2019-09-04

    Applicant: 同济大学

    Abstract: 一种大尺寸目标物的组合式测量方法,包括以下操作,对待测构件布置激光跟踪仪和全站仪,激光跟踪仪至少一台,全站仪至少一台,所有的激光跟踪仪和全站仪形成针对待测构件的多站点测量系统;任选一台激光跟踪仪或者全站仪作为全局基准,将全局基准的局部坐标系作为全局坐标系,将全局基准以外的激光跟踪仪或者全站仪转换到全局坐标系下,获得任意两点在全局坐标系下的坐标值,即可获得待测目标的尺寸信息。本发明具有能够利用激光跟踪仪的测距精度,全站仪的测角精度,对大尺寸构建进行高精度测距和测角的优点。

    一种激光扫描仪与BIM结合的大尺寸建筑构件质量评估方法

    公开(公告)号:CN110608683A

    公开(公告)日:2019-12-24

    申请号:CN201910720402.1

    申请日:2019-08-06

    Applicant: 同济大学

    Abstract: 本发明公开了一种激光扫描仪与BIM结合的大尺寸建筑构件质量评估方法,其特征在于:使用BIM建筑设计技术根据设计图纸建立整体建筑BIM模型;对当前待测构件设置多个激光扫描仪获取点云数据,并对点云数据进行拼接后在revit软件中转换为BIM模型;在revit软件中获取整体建筑BIM模型待测构件部分和待测构件BIM模型的平面图,剖面视图,并对比整体建筑BIM模型待测构件部分的平面图,剖面视图和待测构件BIM模型的平面图,剖面视图中关键参数,若待测构件BIM模型的关键参数位于整体建筑BIM模型待测构件部分的关键参数的误差允许范围内,则待测构件合格,如果位于误差允许范围外,则待测构件不合格。本发明使用激光扫描仪进行建筑质量评估,精度高,速度快。本发明基于BIM模型进行建筑质量评估,可以直观获得建筑质量的缺陷,便于及时调整,修正。

    海上作业场人员安全状态监测和预警系统

    公开(公告)号:CN110515108A

    公开(公告)日:2019-11-29

    申请号:CN201910600493.5

    申请日:2019-07-04

    Applicant: 同济大学

    Abstract: 海上作业场的人员安全状态监测和预警系统,包括北斗信号接收器,GPS信号接收器,UWB定位基站,UWB定位标签和数据处理器;北斗信号接收器,GPS信号接收器和UWB定位标签集成于可穿戴式装置,统一UWB所在的直角坐标系和GPS信号接收器-北斗信号接收器所在的地理坐标系,UWB定位标签输出的坐标为直角坐标系下的坐标,UWB定位标签集成有信号增强天线。比如,信号增强天性使用小型全向垂直极化天线或小型圆极化天线,使UWB定位标签与UWB定位基站的信号传输距离能够覆盖整根室内工作区域。本发明具有能够精确采集海上作业场的工作人员在室内和室外的位置坐标,并且监控作业场工作人员的作业安全和人身安全的优点。

    一种仿生软体灵巧手
    54.
    发明公开

    公开(公告)号:CN109352670A

    公开(公告)日:2019-02-19

    申请号:CN201811229823.6

    申请日:2018-10-22

    Applicant: 同济大学

    Abstract: 本发明涉及一种仿生软体灵巧手,包括手掌和五指,食指、中指、无名指和小指上在手掌侧均设有多个掌侧椭圆形槽口,食指、无名指和小指在朝向中指一侧的指跟处均设有一个侧向椭圆形槽口,拇指在虎口侧设有掌侧椭圆槽口,在指跟处设有一个侧向椭圆形槽口,掌侧椭圆形槽口及侧向椭圆形槽口处均为柔性铰链,并设有过线孔,过线孔内穿入牵引线,牵引线的一端固定于指尖,另一端汇聚于掌心并绕过设于掌心的过线块后从手腕处引出,通过牵引线的拉伸引起柔性铰链形变,实现五指侧向或向掌心的弯曲运动。与现有技术相比,本发明通过手指间的配合,实现抓、握、捏和夹等手部物体操作动作及释放,刚柔软结合,控制简便。

    一种软体机器人变刚度关节模块

    公开(公告)号:CN108608457A

    公开(公告)日:2018-10-02

    申请号:CN201810480717.9

    申请日:2018-05-18

    Applicant: 同济大学

    Abstract: 本发明涉及一种软体机器人变刚度关节模块,包括主动变形部以及与其连接的连接部,所述连接部包括弹性基体以及设于弹性基体上的圆柱形电极和片状电极,所述主动变形部包括热敏SMP变刚度弹性基体以及设于该热敏SMP变刚度弹性基体表面的EAP软体驱动器,所述热敏SMP变刚度弹性基体内嵌柔性加热电路,所述圆柱形电极连接柔性加热电路,所述EAP软体驱动器的前后端设有与所述连接部的片状电极相配合的凹槽。与现有技术相比,本发明具有良好的非结构环境适应性,通过利用多元智能材料的特殊性质实现软体机器人主动变刚度调控。

    一种用于斜拉桥缆索爬行的机器人

    公开(公告)号:CN106930185A

    公开(公告)日:2017-07-07

    申请号:CN201710200821.3

    申请日:2017-03-30

    Applicant: 同济大学

    Inventor: 何斌 王志鹏 刘可

    Abstract: 本发明涉及一种用于斜拉桥缆索爬行的机器人,包括主动小车装置和从动小车装置,通过花篮螺栓连接并将斜拉桥缆索压紧在两者的中间,主动小车装置包括主动小车基板、设于主动小车基板上的动力机构、传动机构以及主动滚轮,动力机构通过传动机构带动主动滚轮转动,从动小车装置包括从动小车基板、设于从动小车基板上的从动滚轮及给机器人安装提供预紧力的压紧机构。与现有技术相比,本发明采用花篮螺栓连接,方便快捷将机器人固定在桥梁缆索上;采用制动块和限位螺栓组合,调节轴承座位置,保证传动机构张紧有度,增加机器人的越障能力;通过观察轴承座在导向销轴的位移即可得到机器人预紧力大小,使整个机器人的预紧过程可观测、可定量调节。

    一种接触点动态预测及优化方法、系统、设备及介质

    公开(公告)号:CN119888245A

    公开(公告)日:2025-04-25

    申请号:CN202411838699.9

    申请日:2024-12-13

    Applicant: 同济大学

    Abstract: 本发明涉及一种接触点动态预测及优化方法、系统、设备及介质,其中,所述的方法包括:提取文本特征、视觉特征,并获取深度图并将深度图转换为3D点云;将所述的文本特征与所述的视觉特征进行多模态对齐,基于多模态对齐结果赋予优先级提示;构建3D价值地图并初始化;生成视觉遮罩,并基于该视觉遮罩对初始化后的3D价值地图进行再处理;基于再处理后的3D价值地图选取当前最佳接触点,并获取当前最佳接触点的执行状态,根据执行状态对3D价值地图进行实时优化。所述的系统、设备及介质用于实现上述的方法。与现有技术相比,本发明提高了机器人操作的灵活性与精度。

    一种基于肌电信号的手臂末端刚度估计方法、装置及介质

    公开(公告)号:CN119719640A

    公开(公告)日:2025-03-28

    申请号:CN202411870012.X

    申请日:2024-12-18

    Applicant: 同济大学

    Abstract: 本发明涉及一种基于肌电信号的手臂末端刚度估计方法、装置及介质,方法步骤包括:在机械臂末端装配六维力传感器,设置机械臂的控制模式与刚度系数;将机械臂末端随机设置在设定原点的一定范围内,操作者手臂佩戴肌电信号传感器,并拖拽机械臂末端到原点位置,实时采集记录机械臂末端位置信息,六维力信息和肌电信号;基于机械臂末端位置信息和六维力信息数据,计算手臂末端刚度真实值;基于肌电信号以及手臂末端刚度真实值,训练手臂末端刚度映射网络;采集受试者的肌电信号,输入完成训练的手臂末端刚度映射网络,估计得到受试者手臂末端刚度。与现有技术相比,本发明削弱了采集数据的零偏,手臂末端刚度估计的准确度更高。

    一种人形机器人步态分析与识别及机器人控制方法

    公开(公告)号:CN118415626B

    公开(公告)日:2025-02-28

    申请号:CN202410506147.1

    申请日:2024-04-25

    Applicant: 同济大学

    Abstract: 本发明公开了一种人形机器人步态分析及机器人控制方法,涉及机器人控制技术领域。利用采集到的步态数据预训练步态分析与识别模型,用于评估人形机器人的步态参数,所述的步态参数包括:步态对称性、步态一致性、动作、步态相位以及步态健康程度;基于预训练的步态分析与识别模型实时估计出的步态参数。之后将预训练的步态分析与识别模型部署到人形机器人控制策略中;将步态分析与识别模型实时估计出的步态参数加入人形机器人控制策略的状态空间,由控制策略生成并执行相应的行为动作。本发明通过评估人形机器人在运动时的对称性、一致性,同时识别机器人的动作及其步态相位,以量化机器人的步态参数,以提高机器人在学习过程中的表现。

    一种基于多模融合的意图理解个性化人机交互方法

    公开(公告)号:CN119165958A

    公开(公告)日:2024-12-20

    申请号:CN202411305091.X

    申请日:2024-09-19

    Applicant: 同济大学

    Abstract: 本发明涉及一种基于多模融合的意图理解个性化人机交互方法,其特征在于为凝视、语音和手势三种信息源设置权重,来迎合用户偏好,在信息融合过程中,通过对三种信息源加权得到预融合信息源,将四种信息源组合融合估计用户意图,用户对结果进行反馈,记录该结果是否符合用户预期,每预测指定次数后,根据这些预测结果更新模态权重,同时将有效的意图指令发送给机器人,机器人完成相应任务,与现有技术相比,本发明具有高准确率、高可靠度的优点,此外本发明可以根据用户反馈周期性调整权重,能够迎合用户偏好,并且在特定场景下,可以通过权重的调节以适应不同场景各模态的适应,提高了人机交互的应用场景,提供个性化人机交互体验等优点。

Patent Agency Ranking