-
公开(公告)号:CN117437383A
公开(公告)日:2024-01-23
申请号:CN202311254126.7
申请日:2023-09-26
Applicant: 中国科学院自动化研究所
Abstract: 本发明提供一种基于视触觉的内窥传感装置及其控制方法,该基于视触觉的内窥传感装置包括:微型支撑框架;凝胶模块,分布多个标记点;凝胶模块用于在接收到外界压力的情况下得到目标标记点的位移信息;图像采集设备,图像采集设备的非采集端嵌入腔体,且非采集端与腔体的内壁紧密贴合,图像采集设备的采集端与凝胶模块的内壁中心对齐;图像采集模块用于从标记点图像对应的位移信息中提取触觉信息,触觉信息用于表示凝胶模块的压力感知能力。本发明所述方法提高了内窥传感装置的检测精度;内窥传感装置结构简单、紧凑,体积小,能够满足医疗内窥系统应用于微手术过程的更多需求,适用性高且成本更低。
-
公开(公告)号:CN117029707A
公开(公告)日:2023-11-10
申请号:CN202310892467.0
申请日:2023-07-19
Applicant: 中国科学院自动化研究所
Abstract: 本发明提供一种面向双目视触觉传感器的接触形变三维感知方法及装置,其中方法包括:确定入射光线,入射光线包括第一、第二入射光线;确定下层交点,基于下层交点,确定下层界面的下层法线方向;基于空气折射率、下层介质的折射率、入射光线和下层法线方向,确定下层折射光线方向;下层折射光线方向包括第一、第二下层折射光线方向;确定上层交点,并确定上层法线方向;基于上层介质的折射率、下层介质的折射率、下层折射光线方向和上层法线方向,确定上层折射光线方向;上层折射光线方向包括第一、第二上层折射光线方向;基于第一上层折射光线方向和第二上层折射光线方向,确定双目视触觉传感器的三维感知点,提高了三维感知的精准度。
-
公开(公告)号:CN116958889A
公开(公告)日:2023-10-27
申请号:CN202310919191.0
申请日:2023-07-25
Applicant: 北京能创科技有限公司 , 中国科学院自动化研究所
IPC: G06V20/50 , G06V20/70 , G06V10/774 , G06V10/764 , G06N3/0895
Abstract: 本发明属于计算机视觉领域,具体涉及一种基于伪标签的半监督小样本目标检测方法,旨在解决在新类目标物体的标注样本有限的情况下新类样本缺乏类内变化,从而影响小样本目标检测性能的问题。本方法包括:通过视觉传感器获取待检测场景的图像,作为第一图像;第一图像送入训练好的基于伪标签的半监督小样本目标检测网络中的学生网络,得到待检测场景图像对应的目标检测的结果;基于伪标签的半监督小样本目标检测网络包括TFA网络、教师网络、学生网络;TFA网络、教师网络、学生网络的网络结构相同。本发明能够有效提升小样本目标检测网络对新类物体的适应性,为机器人在家庭服务、办公等领域下的小样本目标检测提供技术支持。
-
公开(公告)号:CN116859973A
公开(公告)日:2023-10-10
申请号:CN202310953253.X
申请日:2023-07-31
Applicant: 中国科学院自动化研究所
IPC: G05D1/08
Abstract: 本发明提供一种基于受力均衡的多足救援机器人运动控制方法及装置,该方法包括:获取机身的质心速度和角速度;根据质心速度与期望速度得到期望加速度,根据角速度与期望角速度得到期望角加速度;根据期望加速度和加速度得到质心加速度偏量,根据期望角加速度和角加速度,得到角加速度偏量;以质心加速度偏量和角加速度偏量为约束条件,以第一函数为目标函数采用周期迭代算法对多个支腿对地压力的优化问题进行求解,得到目标支撑力,本发明所述方法实现了各支腿的协调运动,进而提高了多足救援机器人在复杂地形作业时的安全性。
-
公开(公告)号:CN111079936B
公开(公告)日:2023-03-14
申请号:CN201911077089.0
申请日:2019-11-06
Applicant: 中国科学院自动化研究所
Abstract: 本发明属于水下作业机器人自主控制领域,具体涉及一种基于强化学习的波动鳍推进水下作业机器人追踪控制方法、系统、装置,旨在解决Actor网络在训练过程中收敛性和稳定性较差,导致目标追踪精度较低的问题。本系统方法包括获取t时刻水下作业机器人的系统状态信息及待跟踪目标在水下作业机器人随体坐标系下的位姿信息,构建马尔科夫决策过程的状态信息st;基于st,通过Actor‑Critic强化学习模型中的Actor网络获取波动鳍的波动频率at;基于at对水下作业机器人的波动鳍进行控制,令t=t+1,进行循环。本发明通过PID控制器监督Actor网络训练,提升了网络的稳定性和收敛性,提高了目标追踪的精度。
-
公开(公告)号:CN112947502B
公开(公告)日:2022-11-08
申请号:CN202110241481.5
申请日:2021-03-04
Applicant: 中国科学院自动化研究所
IPC: G05D1/06
Abstract: 本发明涉及一种柔性仿生蹼水下运动控制方法及系统,所述控制方法包括获取在不同时刻下的柔性仿生蹼的根部转动的角度、升力系数和阻力系数;基于各时刻下的角度、升力系数和阻力系数,建立所述柔性仿生蹼的动力学模型;基于所述柔性仿生蹼的形状及当前流场区域,对所述柔性仿生蹼进行拍动运动的仿真实验,确定仿真数据;基于所述柔性仿生蹼的动力学模型,根据所述仿真数据,预测所述柔性仿生蹼在当前流场区域下各时刻拍动运动产生的推进力;所述推进力用于使所述柔性仿生蹼在水中稳定行进,从而提高水下机器人的推进效率。
-
公开(公告)号:CN113408621B
公开(公告)日:2022-10-14
申请号:CN202110685036.8
申请日:2021-06-21
Applicant: 中国科学院自动化研究所
IPC: G06V10/774 , G06V10/82 , G06N3/04
Abstract: 本发明属于机器人和人工智能技术领域,具体涉及一种面向机器人技能学习的快速模仿学习方法、系统、设备,旨在解决现有机器人的示教数据采集耗时、复杂以及当示教者提供了次优示教时,机器人无法优化执行过程,导致机器人操作效率降低、作业时间变长的问题。本系统方法包括获取原始示教数据;结合预训练的评测器,通过预设的关键帧提取方法从原始示教数据集中提取关键帧示教数据;基于关键帧示教数据,通过训练好的控制策略模型控制机器人复现示教。本发明能够简化机器人模仿学习时的数据采集流程,并基于机器人控制策略模型的性能优化示教轨迹,缩短数据采集时间与机器人操作时间,有效地提高机器人模仿学习的效率、缩短作业时间。
-
公开(公告)号:CN114580576A
公开(公告)日:2022-06-03
申请号:CN202210478258.7
申请日:2022-05-05
Applicant: 中国科学院自动化研究所
IPC: G06K9/62 , G06F16/28 , G06F16/2455
Abstract: 本发明涉及一种基于知识处理的机器人任务规划方法和装置,包括:基于初始任务场景与目标任务场景的实体差异,确定机器人待操控的实体对象及其对应的动作原语;确定外部结构化知识库中与实体对象相匹配的实体;根据与实体对象相匹配的实体、实体对象及其对应的动作原语和动作指令函数,生成从初始任务场景到目标任务场景机器人所要执行的动作序列。本发明赋予机器人对任务场景的自主决策能力,解决了机器人对任务场景理解以及任务规划困难的问题。
-
公开(公告)号:CN113821648A
公开(公告)日:2021-12-21
申请号:CN202111390528.0
申请日:2021-11-23
Applicant: 中国科学院自动化研究所
IPC: G06F16/36 , G06F16/335 , G06F40/14 , G06F40/205 , G06F40/253 , G06N3/04 , G06N3/08 , G06N5/04
Abstract: 本发明提供一种基于本体知识表示的机器人任务处理方法及系统,方法包括:获取任务,创建任务实例;依据所述任务实例和存储的基本动作序列生成动作实例;依次获取所述动作实例的物体实例数据,若所述物体实例数据满足所述动作执行条件则执行所述动作实例;若所述基本动作序列包含的所有动作实例均执行,则所述任务执行成功。本发明与机器人的感知系统、控制系统相结合,实现基于知识的机器人自主控制。本发明对机器人任务执行支撑具有高度完整性,良好可扩展性和较强通用性。
-
公开(公告)号:CN113777593A
公开(公告)日:2021-12-10
申请号:CN202111330346.4
申请日:2021-11-11
Applicant: 中国科学院自动化研究所
Abstract: 本发明提供一种基于伺服电机辅助运动的多激光雷达外参标定方法和装置,其中,方法包括:构建与多激光雷达中每一个雷达对应的虚拟电机坐标系;根据所述每一个雷达与所述虚拟电机坐标系确定所述雷达与所述虚拟电机坐标系之间的外参;根据所述外参确定对应的所述雷达的环境模型;根据每一个所述雷达的环境模型确定所述多激光雷达之间的外参。本发明适用于具有任意相对位姿关系、任意多个激光雷达之间的外参标定,且不要求多激光雷达之间有共视区域。该标定方法操作简单便捷、扩展性强、计算高效、无需特定的标定物或场景布置,适合用于多激光雷达系统的流程化、快速、精准标定。
-
-
-
-
-
-
-
-
-