-
公开(公告)号:CN112365580B
公开(公告)日:2022-10-28
申请号:CN202011276712.8
申请日:2020-11-16
Applicant: 同济大学
Abstract: 本发明公开了一种面向人与机器人技能传授的虚拟作业演示系统。该系统主要由虚拟场景建模、作业信息捕捉、知识挖掘分析三个部分组成。基于虚拟现实技术搭建家庭作业场景,实现演示者的全身运动捕捉和环境全域信息感知,并设计一种结合运动特征与操作物语义的行为分层多权重分割识别算法来获取任务行为高层次语义知识,生成任务行为状态机。本发明提出的虚拟作业演示系统具有效率高、成本低等优点,不仅能为服务机器人仿人行为学习提供丰富、完善、精确的作业演示数据,而且能挖掘作业顺序、作业目标等任务知识,对促进机器人任务知识库的构建和维护、提高机器人的适用性和灵活性具有重要意义。
-
公开(公告)号:CN110539315B
公开(公告)日:2022-09-02
申请号:CN201910720426.7
申请日:2019-08-06
Applicant: 同济大学
Abstract: 基于虚拟现实控制的建筑机器人,包括机械臂,机械臂包括基座、第一支臂和第二支臂,第一支臂与基座铰接,第二支臂与第一支臂铰接,第二支臂的末端设置执行器;第一支臂和第二支臂约束在同一个平面内绕各自的铰链转动;机械臂的铰接处对应人的手臂关节状态,传感器捕捉人手臂关节处的运动位置信息,将获取到的运动位置信息通过基于H∞滤波递推的关节运动角度的估计方法优化实现以人机交互的方式控制机器人。本发明的优点在于,保障危险工况下建筑作业人员的安全,提高建筑作业效率;利用H∞鲁棒滤波来进行手臂关节角度估算,实时且准确的捕捉手臂运动,提高了大型建筑机械的控制灵活性和效率,降低作业难度。
-
公开(公告)号:CN110539315A
公开(公告)日:2019-12-06
申请号:CN201910720426.7
申请日:2019-08-06
Applicant: 同济大学
Abstract: 基于虚拟现实控制的建筑机器人,包括机械臂,机械臂包括基座、第一支臂和第二支臂,第一支臂与基座铰接,第二支臂与第一支臂铰接,第二支臂的末端设置执行器;第一支臂和第二支臂约束在同一个平面内绕各自的铰链转动;机械臂的铰接处对应人的手臂关节状态,传感器捕捉人手臂关节处的运动位置信息,将获取到的运动位置信息通过基于H∞滤波递推的关节运动角度的估计方法优化实现以人机交互的方式控制机器人。本发明的优点在于,保障危险工况下建筑作业人员的安全,提高建筑作业效率;利用H∞鲁棒滤波来进行手臂关节角度估算,实时且准确的捕捉手臂运动,提高了大型建筑机械的控制灵活性和效率,降低作业难度。
-
公开(公告)号:CN118832572B
公开(公告)日:2025-02-28
申请号:CN202410784417.5
申请日:2024-06-18
Applicant: 同济大学
IPC: B25J9/16 , G06N3/0464 , G06N3/0442 , G06N5/04 , G06N3/0455 , G06V10/40
Abstract: 本发明涉及一种机器人视觉语言导航的动作自适应方法和系统,包括:确定机器人可行动作空间数值范围,并生成随机动作;基于随机动作与环境交互所得变化,利用机器人动作影响自编码模块得到动作嵌入向量;基于动作嵌入向量,对比数据集中特定动作并计算差异,确定当前执行动作及对应的语义含义;基于确定性的动作与环境交互所得,利用交叉模态注意力特征提取模块,得到机器人视觉语言多模态特征;基于机器人视觉语言多模态特征,作为扩散策略决策模块条件,迭代推理出机器人下一步执行动作;对机器人状态进行更新,直至到达目标结束本次导航任务。与现有技术相比,本发明具有增强机器人动作自适应的鲁棒性和准确性等优点。
-
公开(公告)号:CN116643587A
公开(公告)日:2023-08-25
申请号:CN202310623947.7
申请日:2023-05-30
Applicant: 同济大学
IPC: G05D1/10 , G06N3/0499 , G06N3/092
Abstract: 本发明涉及一种基于信息素启发的多无人机自主覆盖方法,该方法包括以下步骤:步骤S1、构建多无人机自主收集自然灾害区域数据的覆盖场景图;步骤S2、基于信息素聚合模型,构建多无人机路径信息素地图,标记多无人机路径;步骤S3、根据多无人机自主覆盖任务,定义状态函数、动作函数及奖励函数,建立基于神经网络的多无人机自主覆盖模型并进行训练;步骤S4、采用训练好的多无人机自主覆盖模型进行多无人机自主覆盖。与现有技术相比,本发明具有高效节能、覆盖率高、适用性广的优点。
-
公开(公告)号:CN112365580A
公开(公告)日:2021-02-12
申请号:CN202011276712.8
申请日:2020-11-16
Applicant: 同济大学
Abstract: 本发明公开了一种面向人与机器人技能传授的虚拟作业演示系统。该系统主要由虚拟场景建模、作业信息捕捉、知识挖掘分析三个部分组成。基于虚拟现实技术搭建家庭作业场景,实现演示者的全身运动捕捉和环境全域信息感知,并设计一种结合运动特征与操作物语义的行为分层多权重分割识别算法来获取任务行为高层次语义知识,生成任务行为状态机。本发明提出的虚拟作业演示系统具有效率高、成本低等优点,不仅能为服务机器人仿人行为学习提供丰富、完善、精确的作业演示数据,而且能挖掘作业顺序、作业目标等任务知识,对促进机器人任务知识库的构建和维护、提高机器人的适用性和灵活性具有重要意义。
-
公开(公告)号:CN115796366A
公开(公告)日:2023-03-14
申请号:CN202211537475.5
申请日:2022-12-02
Applicant: 同济大学
Abstract: 本发明涉及图像数据处理技术领域,特别是指一种森林虫害预测方法及虫害预测森林地图系统,所述方法包括:基于森林地理信息图层,获取并显示地理信息数据;基于环境特征信息图层,获取并显示环境特征数据;基于虫害特性信息图层,获取并显示虫害特性数据;基于感知节点分布图层,对森林虫害监测区域进行初始化全域监测并展示,对虫害高发区域进行重点监测并展示,获取并显示移动感知节点的移动信息以及采集到的数据;基于虫害趋势预测图层,基于改进的深度置信模型,预测虫害发展趋势与地理位置;基于数据存储模块,存储地理信息数据、环境特征数据、虫害特性数据。采用本发明,可以实现林木健康诊断与生态多样性变化的监测预警。
-
公开(公告)号:CN115204500A
公开(公告)日:2022-10-18
申请号:CN202210860240.3
申请日:2022-07-21
Applicant: 同济大学
Abstract: 本发明公开了一种面向虫害监测的多检测机器人数字孪生管理系统及方法,涉及数字孪生及森林管理技术领域。包括:异构多检测机器人模块用于获取待检测森林的初始化感知数据以及实时更新的传感器数据;数字孪生模型构建模块用于基于初始化感知数据建立数字孪生模型;智能管理模块用于基于实时更新的传感器数据对数字孪生模型进行实时更新;根据实时更新后的数字孪生模型对异构多检测机器人模块的协同策略进行更新,并建立森林虫害的评估预警方法。本发明提出的系统具有效率高、智能决策等优点,不仅能实时评估预警森林虫害,而且能为异构多检测机器人提供协同覆盖策略的智能决策,对促进森林精准管理、提高异构检测机器人的协同能力具有重要意义。
-
公开(公告)号:CN113780560A
公开(公告)日:2021-12-10
申请号:CN202111009277.7
申请日:2021-08-31
Applicant: 同济大学
Abstract: 本发明涉及一种基于虚拟演示的机器人任务知识自生成系统,包括抽象语义规则生成模块和在线动作分割识别模块。抽象语义规则生成模块包括虚拟演示单元、抽象语义提取单元和人类活动语义规则生成单元,将人类在虚拟空间中的动作转换为任务数据,根据任务数据提取语义信息,根据语义信息结合动作类型生成任务语义规则模型,在线动作分割识别模块包括知识库单元、有向概率任务图单元和动作处理单元,根据任务语义规则模型将动作进行分割及识别,根据识别结果生成任务图。与现有技术相比,本发明具有解释性强、通用性广和信息全面等优点。
-
公开(公告)号:CN118832572A
公开(公告)日:2024-10-25
申请号:CN202410784417.5
申请日:2024-06-18
Applicant: 同济大学
IPC: B25J9/16 , G06N3/0464 , G06N3/0442 , G06N5/04 , G06N3/0455 , G06V10/40
Abstract: 本发明涉及一种机器人视觉语言导航的动作自适应方法和系统,包括:确定机器人可行动作空间数值范围,并生成随机动作;基于随机动作与环境交互所得变化,利用机器人动作影响自编码模块得到动作嵌入向量;基于动作嵌入向量,对比数据集中特定动作并计算差异,确定当前执行动作及对应的语义含义;基于确定性的动作与环境交互所得,利用交叉模态注意力特征提取模块,得到机器人视觉语言多模态特征;基于机器人视觉语言多模态特征,作为扩散策略决策模块条件,迭代推理出机器人下一步执行动作;对机器人状态进行更新,直至到达目标结束本次导航任务。与现有技术相比,本发明具有增强机器人动作自适应的鲁棒性和准确性等优点。
-
-
-
-
-
-
-
-
-