-
公开(公告)号:CN113780560B
公开(公告)日:2024-02-27
申请号:CN202111009277.7
申请日:2021-08-31
Applicant: 同济大学
IPC: G06N5/025 , G06N3/008 , G06N7/01 , G06F18/241 , G06N3/0442 , G06N3/08
Abstract: 本发明涉及一种基于虚拟演示的机器人任务知识自生成系统,包括抽象语义规则生成模块和在线动作分割识别模块。抽象语义规则生成模块包括虚拟演示单元、抽象语义提取单元和人类活动语义规则生成单元,将人类在虚拟空间中的动作转换为任务数据,根据任务数据提取语义信息,根据语义信息结合动作类型生成任务语义规则模型,在线动作分割识别模块包括知识库单元、有向概率任务图单元和动作处理单元,根据任务语义规则模型将动作进行分割及识别,根据识别结果生成任务图。与现有技术相比,本发明具有解释性强、通用性广和信息全面等优点。
-
公开(公告)号:CN117182908A
公开(公告)日:2023-12-08
申请号:CN202311245109.7
申请日:2023-09-26
Applicant: 同济大学
Abstract: 本发明涉及一种基于强化学习的感驱一体软体机器人自主变形系统及方法,其中方法包括以下步骤:调整气动软体机械手初始位姿;软体机械手轻触待夹取物体,自感知模块收集待夹取物体形状特征信息;形状判别模块根据形状特征信息判别物体形状;强化学习训练模块根据物体形状判别信息和形状特征信息,训练强化学习模型,确定软体机械手的位姿并提供相应变形指令;自主驱动变形模块根据变形指令改变气动软体机械手形状;软体机械手使用调整后的位姿和形状重新完成物体夹取动作,若成功抓取则流程结束;若未成功抓取,则更新形状特征信息,进行位姿修正。与现有技术相比,本发明具有学习物体形状特点而实现自适应变形以提高抓取效率等优点。
-
公开(公告)号:CN117010475A
公开(公告)日:2023-11-07
申请号:CN202310983240.7
申请日:2023-08-07
Applicant: 同济大学
IPC: G06N3/092 , G06N3/048 , G06N3/0464 , G06N3/0455 , G06N3/088 , G06V10/40
Abstract: 本发明提供一种基于最大熵内在奖励的无监督技能学习系统,属于机器人自主动作学习技术领域,提出了一个多物体表征学习模型,能够以无监督的方式,将场景中的物体从图像的背景中解耦开,得到紧凑的多物体表征;构建一个以物体为中心的最大熵内在奖励函数,来衡量探索样本集的整体信息熵,通过内在奖励进行任务无关的强化学习训练,从而学习到一个机器人高效探索策略,驱动机器人在环境中探索尽可能新的样本;利用预训练的多物体表征学习模型和机器人探索策略,作为下游特定任务学习的感知模型和控制模型的初始化,能够显著提升下游任务的学习效率和学习效果。
-
公开(公告)号:CN116912440A
公开(公告)日:2023-10-20
申请号:CN202310857462.4
申请日:2023-07-12
Applicant: 同济大学
Abstract: 本发明涉及计算机视觉三维建模技术领域,特别是指一种针对地下弱光弱纹理环境下的结构语义地图构建方法,该方法包括:融合传统方法与Transfomer的结构语义参数化线条检测与验证模型;建立根据结构信息方向引导的几何基元半平面搜索方法;建立基于几何基元模型的邻域贪婪扩张算法;逐个几何基元位姿与边界优化;点云地图与结构信息融合,建立融合几何结构基元的语义地图。采用本发明,不需要人工干预能建立弱光弱纹理环境下多种地下空间三维立体地图,且对于管线,立柱,楼梯等规则物体建立完整CAD可操作模型,在城市地下管廊、地铁地下隧道等多种弱光弱纹理环境下具有重要的应用价值,能解决人工建模周期长,弱纹理、弱光照下三维建模精度低等问题。
-
公开(公告)号:CN116774263A
公开(公告)日:2023-09-19
申请号:CN202310694378.5
申请日:2023-06-12
Applicant: 同济大学
Abstract: 本发明提供一种面向组合导航系统的导航定位方法及装置,在该方法中,包括:基于惯导系统确定针对导航目标的第一导航定位信息,以及基于GPS系统确定针对导航目标的第二导航定位信息;GPS系统包含实时动态GPS模块和激光雷达模块;基于惯导系统的导航参数误差模型构建针对滤波模型的状态方程,以及基于惯导系统与GPS系统所输出的定位信息的偏差构建针对滤波模型的量测方程,滤波模型以导航参数误差作为状态量;基于滤波模型,确定对应量测信息的导航参数误差;滤波模型采用强跟踪卡尔曼滤波算法;基于导航参数误差,校正第一导航定位信息。由此,通过增量式自适应强跟踪卡尔曼滤波方法进行工作,实现高精度导航定位信息。
-
公开(公告)号:CN116723141A
公开(公告)日:2023-09-08
申请号:CN202310784240.4
申请日:2023-06-29
Applicant: 同济大学
IPC: H04L45/00 , H04L41/0823 , H04L41/0659
Abstract: 本发明提供一种基于区块链的多节点跳变路径循迹与测试方法及装置,所述方法包括:在区块链网络中选取出一个父节点,剩下的所有节点作为子节点,所有子节点订阅父节点从而获得所需信息;所有子节点一方面维护自身节点的信息,另一方面还维护与之相邻的子节点的信息,并将自身所拥有的全部信息发布至父节点进行注册;在区块链网络中,确定起始节点与终端节点,针对中间节点进行节点间的跳变路径循迹规划;在各个中间节点部署网关模组,对经过该节点的输入信号、输出信号进行记录,从而针对所选择的节点路径进行分析,保证多节点跳变路径循迹的可靠性。本发明可实现多节点跳变路径循迹规划,并可保证多节点跳变路径循迹的可靠性。
-
公开(公告)号:CN116682005A
公开(公告)日:2023-09-01
申请号:CN202310601790.8
申请日:2023-05-25
Applicant: 同济大学
Abstract: 本发明提供一种面向地下快速目标探测的多智能体分布式感知融合系统,属于多智能体分布式感知融合领域。所述系统包括:类复眼数据采集模块,用于利用搭载多类传感器并模仿昆虫视觉系统的多智能体,迅速感知地下空间数据;其中,所述多类传感器包括:惯性传感器、具有复眼镜头的视觉传感器和具有复眼透镜的红外传感器,获取的地下空间数据包括:多智能体的状态以及地下快速目标图像;分布式感知数据融合模块,用于利用分布式感知数据融合策略对类复眼数据采集模块感知的地下空间数据进行空间维度和时间维度的融合,得到地下快速目标探测的全局信息地图。采用本发明,能够很大程度上提高地下快速目标探测效率。
-
公开(公告)号:CN115204500B
公开(公告)日:2023-08-22
申请号:CN202210860240.3
申请日:2022-07-21
Applicant: 同济大学
IPC: G06Q10/047 , G06Q10/0633 , G06Q50/02 , G01N33/00 , G06N20/00
Abstract: 本发明公开了一种面向虫害监测的多检测机器人数字孪生管理系统及方法,涉及数字孪生及森林管理技术领域。包括:异构多检测机器人模块用于获取待检测森林的初始化感知数据以及实时更新的传感器数据;数字孪生模型构建模块用于基于初始化感知数据建立数字孪生模型;智能管理模块用于基于实时更新的传感器数据对数字孪生模型进行实时更新;根据实时更新后的数字孪生模型对异构多检测机器人模块的协同策略进行更新,并建立森林虫害的评估预警方法。本发明提出的系统具有效率高、智能决策等优点,不仅能实时评估预警森林虫害,而且能为异构多检测机器人提供协同覆盖策略的智能决策,对促进森林精准管理、提高异构检测机器人的协同能力具有重要意义。
-
公开(公告)号:CN116542304A
公开(公告)日:2023-08-04
申请号:CN202310470881.2
申请日:2023-04-27
Applicant: 同济大学
Abstract: 本发明涉及一种基于多模态类脑主动感知的边缘计算装置,包括:感知神经元模块,用于获取不同模态的感知信息,并将所述感知信息预处理编码为具有设定格式的脉冲序列;传递神经模块,用于对不同模态的所述脉冲序列进行并行存储和处理,提取相应模态的特征向量;类脑多模处理模块,用于对不同模态的所述特征向量进行选择调配,并进行信息融合与场景理解处理,获取决策信息。与现有技术相比,本发明具有运算效率高、多模信息融合准确性高等优点,进而实现更加可靠的场景理解。
-
公开(公告)号:CN115796366B
公开(公告)日:2023-08-01
申请号:CN202211537475.5
申请日:2022-12-02
Applicant: 同济大学
Abstract: 本发明涉及图像数据处理技术领域,特别是指一种森林虫害预测方法及虫害预测森林地图系统,所述方法包括:基于森林地理信息图层,获取并显示地理信息数据;基于环境特征信息图层,获取并显示环境特征数据;基于虫害特性信息图层,获取并显示虫害特性数据;基于感知节点分布图层,对森林虫害监测区域进行初始化全域监测并展示,对虫害高发区域进行重点监测并展示,获取并显示移动感知节点的移动信息以及采集到的数据;基于虫害趋势预测图层,基于改进的深度置信模型,预测虫害发展趋势与地理位置;基于数据存储模块,存储地理信息数据、环境特征数据、虫害特性数据。采用本发明,可以实现林木健康诊断与生态多样性变化的监测预警。
-
-
-
-
-
-
-
-
-