-
公开(公告)号:CN112203811B
公开(公告)日:2023-05-09
申请号:CN201980035180.8
申请日:2019-05-24
Applicant: 川崎重工业株式会社
IPC: B25J13/08
Abstract: 一种机器人系统及机器人控制方法。机器人系统(1)具备机器人(10)、动作传感器(11)、周围环境传感器(12、13)、操作装置(21)、学习控制部(41)、及中转装置(30)。机器人(10)根据动作指令进行作业。操作装置(21)检测并输出作为作业者所施加的操作力的作业者操作力。学习控制部(41)输出运算操作力。中转装置(30)根据作业者操作力和运算操作力输出动作指令。学习控制部(41)利用通过对作业者操作力、周围环境数据、动作数据、及动作指令进行机器学习而建立的模型,根据传感器(11~13)所输出的动作数据和周围环境数据、及中转装置(30)所输出的动作指令,来推测并输出运算操作力。
-
公开(公告)号:CN115087521A
公开(公告)日:2022-09-20
申请号:CN202080090021.0
申请日:2020-12-22
Applicant: 川崎重工业株式会社
Abstract: 训练数据排序装置,具备数据评估模型、数据评估部、存储部、和训练数据排序部。所述数据评估模型通过对所述收集数据的至少一部分数据进行机器学习、或者通过对与所述收集数据不同的数据进行机器学习而构建。所述数据评估部使用所述数据评估模型评估输入的所述收集数据。所述存储部存储通过所述数据评估部评估后的收集数据即评估完毕数据。所述训练数据排序部通过提示了所述数据评估部的评估结果的操作人员的指示、或者基于该评估结果自动地从通过所述存储部存储的所述评估完毕数据中对用于构建所述学习模型的训练数据进行排序。
-
公开(公告)号:CN113573856A
公开(公告)日:2021-10-29
申请号:CN202080017363.X
申请日:2020-02-27
Applicant: 川崎重工业株式会社
Abstract: 机器学习模型运用管理系统,包括模型构建服务器和运用服务器。模型构建服务器根据接收的学习用数据构建机器学习完成模型。在保存于机器人控制器中的机器学习完成模型运行以确定机器人的动作的情况下,运用服务器接收该机器人控制器生成的运用信息。对通过模型构建服务器构建的机器学习完成模型的数据,提供唯一识别该机器学习完成模型的模型识别信息。机器人控制器询问是否对本身保存的机器学习完成模型具有使用权限,在具有使用权限的情况下将该机器学习完成模型设定为可使用状态。运用服务器将运用信息与模型识别信息建立关联地存储该运用信息。
-
公开(公告)号:CN113195177A
公开(公告)日:2021-07-30
申请号:CN201980083097.8
申请日:2019-12-27
Applicant: 川崎重工业株式会社
Abstract: 一种机器人控制装置、机器人系统以及机器人控制方法,机器人控制装置,包括:学习完成模型,其是通过学习工作数据而构建,该工作数据是将人为操作机器人进行一系列工作时的机器人及该机器人周遭的状态作为输入数据,且将人为根据该输入数据的操作或该机器人的通过该操作的动作作为输出数据;控制数据获取部,其在将所述输入数据输入学习完成模型的情况下,通过从学习完成模型获取与根据此输入数据估计的人为操作或机器人的动作相关的输出数据,获得机器人的控制数据;进展度获取部,其用于获取进展度,该进展度显示学习完成模型输出的所述输出数据在一系列工作中对应于哪一个进度水平;和可信度获取部,其用于获取当学习完成模型根据所述输入数据的输入而输出所述输出数据时的所述估计的准确性。
-
公开(公告)号:CN111194452A
公开(公告)日:2020-05-22
申请号:CN201880039071.9
申请日:2018-06-08
Applicant: 川崎重工业株式会社
Abstract: 自动运行系统(5),具备多个学习完毕模仿模型(61)和模型选择部(35)。学习完毕模仿模型(61),是通过利用分类系统(51)的自动分类演算法将工作履历数据分类为多个组,且使与该组对应的模仿模型(61)对每个组进行机械学习而被建构。工作履历数据,包含显示周边环境的数据、和显示操作人员在该周边环境中的操作的数据。模型选择部(35)根据利用分类系统(51)的自动分类演算法对所提供的显示周边环境的数据进行分类的结果,从多个模仿模型(61)中选择一个模仿模型(61)。自动运行系统(5),将显示周边环境的数据输入通过模型选择部(35)选择的模仿模型(61),预测操作人员对该周边环境的操作。
-
公开(公告)号:CN118143980A
公开(公告)日:2024-06-07
申请号:CN202410420432.1
申请日:2019-12-27
Applicant: 川崎重工业株式会社
Abstract: 一种机器人控制装置、机器人系统以及机器人控制方法,机器人控制装置,包括:学习完成模型,其是通过学习工作数据而构建,该工作数据是将人为操作机器人进行一系列工作时的机器人及该机器人周遭的状态作为输入数据,且将人为根据该输入数据的操作或该机器人的通过该操作的动作作为输出数据;控制数据获取部,其在将所述输入数据输入学习完成模型的情况下,通过从学习完成模型获取与根据此输入数据估计的人为操作或机器人的动作相关的输出数据,获得机器人的控制数据;进展度获取部,其用于获取进展度,该进展度显示学习完成模型输出的所述输出数据在一系列工作中对应于哪一个进度水平;和可信度获取部,其用于获取当学习完成模型根据所述输入数据的输入而输出所述输出数据时的所述估计的准确性。
-
公开(公告)号:CN111194452B
公开(公告)日:2023-10-10
申请号:CN201880039071.9
申请日:2018-06-08
Applicant: 川崎重工业株式会社
Abstract: 自动运行系统(5),具备多个学习完毕模仿模型(61)和模型选择部(35)。学习完毕模仿模型(61),是通过利用分类系统(51)的自动分类演算法将工作履历数据分类为多个组,且使与该组对应的模仿模型(61)对每个组进行机械学习而被建构。工作履历数据,包含显示周边环境的数据、和显示操作人员在该周边环境中的操作的数据。模型选择部(35)根据利用分类系统(51)的自动分类演算法对所提供的显示周边环境的数据进行分类的结果,从多个模仿模型(61)中选择一个模仿模型(61)。自动运行系统(5),将显示周边环境的数据输入通过模型选择部(35)选择的模仿模型(61),预测操作人员对该周边环境的操作。
-
公开(公告)号:CN116600952A
公开(公告)日:2023-08-15
申请号:CN202180084729.X
申请日:2021-12-16
Applicant: 川崎重工业株式会社
IPC: B25J13/08
Abstract: 控制装置(140)进行使机器人(110)以自动运转执行规定作业的控制,具备第一处理器,上述第一处理器执行:在上述规定作业的执行中,取得包含作业对象亦即工件(W)的状态的状态信息;基于上述状态信息,决定与上述工件相关的作业位置的候补;将请求从上述作业位置的候补中选择上述作业位置的选择请求经由通信网络发送给以能够进行数据通信的方式连接的操作终端(210);以及当从上述操作终端接收到被选择的上述作业位置亦即选择位置的信息时,使上述机器人按照上述选择位置以自动运转进行动作。
-
公开(公告)号:CN115916480A
公开(公告)日:2023-04-04
申请号:CN202180045162.5
申请日:2021-06-21
Applicant: 川崎重工业株式会社
Abstract: 机器人示教方法包含预先登记工序、机器人动作工序及示教工序。预先登记工序中,通过用测量装置(31)测量周围环境而确定测量装置(31)相对于周围环境的相对自我位置,登记用相对于周围环境的相对自我位置确定的机器人(10)的示教点,即,环境示教点。机器人动作工序中,在机器人(10)装有测量装置(31)的状态下,根据测量装置(31)所测得的周围环境的测量结果,使机器人(10)相对于周围环境的相对自我位置与环境示教点相一致地使机器人(10)自动动作。示教工序中,在机器人(10)相对于周围环境的相对自我位置与环境示教点相一致的状态下,将用内部传感器(12)检测出的机器人(10)的位置及姿态的检测值作为示教信息登记。
-
公开(公告)号:CN115467382A
公开(公告)日:2022-12-13
申请号:CN202211163884.3
申请日:2020-05-20
Applicant: 川崎重工业株式会社
Abstract: 本发明的带学习功能的建筑机械(100)具备:动作部(103),其具有作业部(104);操作部(101);作业状况检测部(112);动作状态检测部(113);反作用检测部(114);学习数据存储部(115),其将从操作部(101)输出的指令(201)按时间序列作为指令数据(211)存储,并且将作业状况数据(212)、动作状态数据(213)以及反作用数据(214)分别按时间序列作为预测基础数据(Pd)存储;学习部(118),其使用存储于学习数据存储部(115)的预测基础数据(PD'),对存储于学习数据存储部(115)的指令数据(211')进行机械学习,在结束机械学习后,在动作部(103)的动作时接收预测基础数据(Pd)的输入,并输出指令(201)的预测指令(1103);以及液压驱动系统(105),其基于指令(201)、预测指令(1103)、或指令(201)以及预测指令(1103)驱动动作部(103)。
-
-
-
-
-
-
-
-
-