-
公开(公告)号:CN113601501B
公开(公告)日:2022-10-28
申请号:CN202110813930.9
申请日:2021-07-19
Applicant: 中国科学院自动化研究所
Abstract: 本发明提供一种机器人柔性作业方法、装置及机器人,所述方法包括:在作业对象运动到指定位置时,确定作业对象的位姿信息;基于作业对象的位姿信息,以及相机参数信息,确定机器人跟随作业的路径点;基于机器人的作业路径点,以及作业对象的当前位置数据,生成当前运动指令,并将当前运动指令发送至机器人的执行机构,以使执行机构基于当前运动指令实时调整姿态并对作业对象进行柔性作业操作。本发明能够基于当前运动指令实时调整姿态并准确对运动的作业对象进行柔性作业操作,实现对移动的作业对象动态跟踪和高精度的随动柔性作业。
-
公开(公告)号:CN114536381B
公开(公告)日:2022-09-06
申请号:CN202210442685.X
申请日:2022-04-26
Applicant: 中国科学院自动化研究所
IPC: B25J15/00
Abstract: 本发明涉及机器人技术领域,提供一种仿人五指灵巧手,包括:手掌单元以及分别连接于所述手掌单元的大拇指、食指、中指、无名指和小指;大拇指的第一拇指关节和第三拇指关节具有回转自由度,大拇指的第二拇指关节、第四拇指关节和第五拇指关节具有屈伸自由度;食指、中指、无名指和小指的第一手指关节具有侧摆自由度,第二手指关节、第三手指关节和第四手指关节具有屈伸自由度。该仿人五指灵巧手的灵巧性不仅超越了现有的灵巧手,还能够实现部分人手不能实现的动作。
-
公开(公告)号:CN113256581B
公开(公告)日:2022-09-02
申请号:CN202110555658.9
申请日:2021-05-21
Applicant: 中国科学院自动化研究所
IPC: G06T7/00 , G06T7/11 , G06T5/50 , G06V10/774 , G06V10/762 , G06V10/46 , G06T5/00
Abstract: 本发明属于零件表面损伤检测技术领域,具体涉及一种基于视觉注意建模融合的缺陷样本自动标注方法及系统,旨在解决现有技术中无法实现精密零件样本表面缺陷的自动标注问题,方法包括对输入的原始样本图像进行超像素分割,将图像自动分割成若干个具有预设特征的图像区域;对每个图像区域分别计算基于视觉注意建模融合的显著图,并利用标记阵列分割方法将该显著图中的显著区域分割出来以作为缺陷候选区域;提取缺陷候选区域的特征,并进行聚类,得到若干个不同类别的缺陷样本,根据少量标签或已知的标签定义规则对每个缺陷样本进行标注,也可通过人机交互对未知类别进行手动标注;通过本发明可大大减少人工标注的工作量,标注效率高、准确度好。
-
公开(公告)号:CN114536382B
公开(公告)日:2022-08-12
申请号:CN202210442688.3
申请日:2022-04-26
Applicant: 中国科学院自动化研究所
IPC: B25J15/00
Abstract: 本发明提供一种神经拟态灵巧手机器人,包括神经拟态手体、神经拟态驱动机构、传感组件及控制装置;神经拟态手体包括人手拟态骨架与仿生皮肤层,人手拟态骨架具有适于模仿人手姿态变化的多个关节;神经拟态驱动机构具有多个腱绳驱动单元,多个腱绳驱动单元分别与多个关节一一对应地连接;传感组件包括多个触觉传感器与多个角度传感器,多个触觉传感器分别集成于仿生皮肤层,多个角度传感器分别一一对应地设于多个关节;传感组件与控制装置连接,控制装置与神经拟态驱动机构连接。本发明的神经拟态灵巧手机器人不仅实现了驱动方式与类人灵巧性的高度神经拟态,还实现了对其抓握姿态的精确闭环控制,可达到人手水平的类人灵巧操作能力。
-
公开(公告)号:CN113158743B
公开(公告)日:2022-07-12
申请号:CN202110129392.1
申请日:2021-01-29
Applicant: 中国科学院自动化研究所
IPC: G06V20/10 , G06V10/774 , G06V10/764 , G06V10/762 , G06K9/62
Abstract: 本发明属于机器视觉检测技术领域,具体涉及一种基于先验知识的小目标实时检测与定位方法、系统、设备,旨在现有的目标检测与定位方法忽略目标之间的位置关系和空间分布的先验知识,导致检测与定位精度差的问题。本方法包括获取包含待定位目标的场景图像,作为输入图像;获取输入图像中待定位目标的各候选区域的位置及对应的分类置信度;获取各候选区域位置的置信度;对各候选区域,基于其对应的分类置信度、位置的置信度求取联合概率分布,得到联合置信度;将联合置信度大于设定置信度阈值的候选区域作为待定位目标最终的预测区域,进而得到待定位目标的最终位置。本发明提高了目标检测、定位的精度。
-
公开(公告)号:CN114536382A
公开(公告)日:2022-05-27
申请号:CN202210442688.3
申请日:2022-04-26
Applicant: 中国科学院自动化研究所
IPC: B25J15/00
Abstract: 本发明提供一种神经拟态灵巧手机器人,包括神经拟态手体、神经拟态驱动机构、传感组件及控制装置;神经拟态手体包括人手拟态骨架与仿生皮肤层,人手拟态骨架具有适于模仿人手姿态变化的多个关节;神经拟态驱动机构具有多个腱绳驱动单元,多个腱绳驱动单元分别与多个关节一一对应地连接;传感组件包括多个触觉传感器与多个角度传感器,多个触觉传感器分别集成于仿生皮肤层,多个角度传感器分别一一对应地设于多个关节;传感组件与控制装置连接,控制装置与神经拟态驱动机构连接。本发明的神经拟态灵巧手机器人不仅实现了驱动方式与类人灵巧性的高度神经拟态,还实现了对其抓握姿态的精确闭环控制,可达到人手水平的类人灵巧操作能力。
-
公开(公告)号:CN113256581A
公开(公告)日:2021-08-13
申请号:CN202110555658.9
申请日:2021-05-21
Applicant: 中国科学院自动化研究所
Abstract: 本发明属于零件表面损伤检测技术领域,具体涉及一种基于视觉注意建模融合的缺陷样本自动标注方法及系统,旨在解决现有技术中无法实现精密零件样本表面缺陷的自动标注问题,方法包括对输入的原始样本图像进行超像素分割,将图像自动分割成若干个具有预设特征的图像区域;对每个图像区域分别计算基于视觉注意建模融合的显著图,并利用标记阵列分割方法将该显著图中的显著区域分割出来以作为缺陷候选区域;提取缺陷候选区域的特征,并进行聚类,得到若干个不同类别的缺陷样本,根据少量标签或已知的标签定义规则对每个缺陷样本进行标注,也可通过人机交互对未知类别进行手动标注;通过本发明可大大减少人工标注的工作量,标注效率高、准确度好。
-
公开(公告)号:CN110044920A
公开(公告)日:2019-07-23
申请号:CN201910345423.X
申请日:2019-04-26
Applicant: 中国科学院自动化研究所
IPC: G01N21/95
Abstract: 本发明属于焊接技术领域,具体涉及一种线状工件焊点焊接质量检测系统及方法,旨在解决人工检测效率低、一致性差和成本高的问题。本发明实施例公开了一种线状工件焊点焊接质量检测系统及方法,该方法包括步骤:S1、获取带有焊点的工件的图像;S2、基于步骤S1获取到的所述图像获取所述焊点在所述工件上的位置信息;S3、驱动焊点检测仪器移动至所述焊点的位置;S5、驱动所述焊点检测仪器绕所述焊点旋转,以获取所述焊点的焊接质量数据。实现了以自动完成对焊点的焊接质量检测,避免人工检测效率低、一致性差和成本高的发生。
-
公开(公告)号:CN109800431A
公开(公告)日:2019-05-24
申请号:CN201910062802.8
申请日:2019-01-23
Applicant: 中国科学院自动化研究所 , 国家计算机网络与信息安全管理中心
Abstract: 本发明属于计算机科学技术领域,尤其是涉及一种事件信息关键词提取方法、监控方法、及其系统和装置,旨在为了解决解决无监督方法提取关键词效果不稳定的问题。本发明提取方法对于获取的待监控的事件信息,基于多种关键词提取技术提取并优选一组相关性很强的关键词作为第一关键词组,而后基于关键词在时域的发展演化选出最新的热点词汇作为第二关键词组,再后对同一时间段内的同一事件的不同报道进行聚类,提取各聚类的关键词合并后作为第三关键字组,最后合并三个关键词组并选定最终的关键词组合。本发明提高了系统的稳定性,同时兼顾了时域及同一事件不同侧面的发展方向。
-
公开(公告)号:CN108636820A
公开(公告)日:2018-10-12
申请号:CN201810287567.X
申请日:2018-03-30
Applicant: 中国科学院自动化研究所
CPC classification number: B07C5/02 , B07C5/3422 , B07C5/361 , B07C5/362 , G01N21/88
Abstract: 本发明属于自动化检测技术领域,涉及一种基于视觉的精密零件自动化检测与分拣系统及方法。其中检测与分拣系统包括传送装置、上料定位装置、翻面装置、位姿调整装置和视觉检测系统。优选地,零件先以第一姿态被输送至第一检测位置进行第一检测面的检测,然后经翻面装置翻面再经位姿调整装置调整后以第二姿态被输送至第二检测位置进行第二检测面的检测,从而解决了现有的检测分拣自动化设备无法满足上下表面均需要检测的零件的表面检测需求的问题,同时提高了检测效率,提高了检测质量。
-
-
-
-
-
-
-
-
-