-
公开(公告)号:CN114419868B
公开(公告)日:2024-03-15
申请号:CN202111326419.2
申请日:2021-11-10
Applicant: 北京控制工程研究所
Abstract: 一种星载火情信息多通道发布系统,包括:火点检测敏感器,用于获取火点成像信息,并与短报文系统、整星SRTU通讯;短报文系统与火点检测敏感器、地面指挥终端通讯;整星SRTU与火点检测敏感器、地面指挥终端通讯;智能处理中心控制单元用于确定空间地理信息要素发送给火点检测敏感器,接收火点检测敏感器输出的遥感测量信息,并对接收的遥感测量信息进行剔野、计算和存储;智能处理中心控制单元根据地面指令进行火点信息发布;地面指挥终端,用于接收图像数据和或火点信息,并对外发布。
-
公开(公告)号:CN117493884A
公开(公告)日:2024-02-02
申请号:CN202311533174.X
申请日:2023-11-16
Applicant: 北京控制工程研究所
IPC: G06F18/214 , G06F18/2415 , G06N3/092
Abstract: 本发明涉及人工智能技术领域,特别涉及一种面向复杂场景的强化学习决策方法及装置。获取目标环境的当前状态和与该当前状态对应的事件状态集,所述事件状态集是预先训练好的事件生成网络模型基于该当前状态确定的;所述事件生成网络模型是基于包含多个样本对的样本集训练得到的,每个所述样本对均包括目标环境的环境状态和与该环境状态相对应的事件集中各事件发生的概率;将所述当前状态和所述事件状态集输入至预先训练好的强化学习网络模型,输出与该当前状态相对应的决策,所述强化学习网络模型是以所述目标环境的环境状态和所述事件生成网络模型输出的事件状态集为输入训练得到的。本发明方法,可以对复杂场景做出准确的决策。
-
公开(公告)号:CN117047763A
公开(公告)日:2023-11-14
申请号:CN202311086605.2
申请日:2023-08-28
Applicant: 北京控制工程研究所
IPC: B25J9/16
Abstract: 本发明涉及人工智能技术领域,特别涉及一种基于信息交互的空间机器人的协同操作方法及装置。方法包括:基于目标任务确定多个空间机器人,每个空间机器人分别对应一个子任务和一个智能体网络,每个智能体网络均包括策略网络、评价网络、通讯网络和输出网络;构建每个智能体网络之间的联合操作模型,在联合操作模型中,每个智能体网络分别通过其通讯网络和输出网络与其它智能体网络进行信息交互;对联合操作模型进行训练,得到训练好的联合操作模型;将每个空间机器人基于其子任务获取的观测数据分别输入训练好的联合操作模型,得到每个空间机器人相应的操作策略。本发明,通过各机器人之间的协同工作,可以更好地完成目标任务。
-
公开(公告)号:CN114419868A
公开(公告)日:2022-04-29
申请号:CN202111326419.2
申请日:2021-11-10
Applicant: 北京控制工程研究所
Abstract: 一种星载火情信息多通道发布系统,包括:火点检测敏感器,用于获取火点成像信息,并与短报文系统、整星SRTU通讯;短报文系统与火点检测敏感器、地面指挥终端通讯;整星SRTU与火点检测敏感器、地面指挥终端通讯;智能处理中心控制单元用于确定空间地理信息要素发送给火点检测敏感器,接收火点检测敏感器输出的遥感测量信息,并对接收的遥感测量信息进行剔野、计算和存储;智能处理中心控制单元根据地面指令进行火点信息发布;地面指挥终端,用于接收图像数据和或火点信息,并对外发布。
-
公开(公告)号:CN111844034A
公开(公告)日:2020-10-30
申请号:CN202010693535.7
申请日:2020-07-17
Applicant: 北京控制工程研究所
IPC: B25J9/16
Abstract: 基于深度强化学习的端到端在轨自主加注控制系统及方法,包括基于深度强化学习的端到端在轨加注控制系统和神经网络结构;控制系统包括:基于深度神经网络的特征提取系统、基于深度强化学习的自学习轨迹规划系统和机械臂关节控制系统;神经网络结构包括:基于深度神经网络的特征提取系统网络和基于深度强化学习的自学习轨迹规划系统网络;特征提取系统网络主要由深度卷积神经网络组成;轨迹规划系统网络由策略网络和评价网络构成;整个系统在虚拟环境下利用深度强化学习的基本方法进行训练,且可基于特征迁移至真实的物理环境下。本发明不但解决了困扰当前空间操作的环境的非结构化、遥操作的大时延等难题,并且具有实际的工程应用价值。
-
公开(公告)号:CN117115608A
公开(公告)日:2023-11-24
申请号:CN202311086572.1
申请日:2023-08-28
Applicant: 北京控制工程研究所
IPC: G06V10/80 , G06V10/774 , G06F16/36
Abstract: 本发明涉及人工智能技术领域,特别涉及一种基于知识嵌入强化学习的决策方法、装置、设备及介质。方法包括:获取目标环境待决策的原始图像;将所述待决策的原始图像输入至预先训练好的强化学习模型,输出与所述待决策的原始图像相对应的决策;所述预先训练好的强化学习模型包括策略网络、评价网络、回报函数和知识融合模块,所述知识融合模块用于将输入的原始图像与先验知识进行融合,以得到包含先验知识的图向量,所述策略网络用于基于所述图向量向所述目标环境输出决策。本发明,可以得到更加符合预期的决策。
-
公开(公告)号:CN114172557A
公开(公告)日:2022-03-11
申请号:CN202111328016.1
申请日:2021-11-10
Applicant: 北京控制工程研究所
Abstract: 一种基于RDSS系统智能星载遥感系统,包括星载遥感敏感器,用于遥感成像和观测,并对遥感成像和观测的数据进行处理后输出;星载遥感敏感器接收有效遥感数据后通过RDSS系统发送至地面指挥终端;短报文系统,用于与星载遥感敏感器实时通信;智能处理中心控制单元,用于实时计算空间地理信息并发送给星载遥感敏感器,接收星载遥感敏感器输出的遥感成像和观测数据,并对遥感成像和观测数据进行剔野、计算,获取有效遥感数据后分发;同时用于实时计算短报文系统的有效工作区域;地面指挥终端,用于接收有效遥感数据。
-
公开(公告)号:CN111942621B
公开(公告)日:2022-03-04
申请号:CN202010693554.X
申请日:2020-07-17
Applicant: 北京控制工程研究所
Abstract: 一种基于多任务学习的在轨自主加注控制方法及系统,属于空间技术领域。本发明方法包括:构建任务表达网络G和任务执行网络H,在在轨加注虚拟环境中使用强化学习方法训练与微调任务表达网络G和任务执行网络H,直到两个网络的参数收敛,形成多任务策略网络F;在一种基于多任务学习的在轨自主加注控制系统中,将真实机械臂运动状态复位,使用多任务策略网络F对真实机械臂进行控制,使真实机械臂执行相应动作,完成在轨加注操作任务。针对多种操作任务独立学习引起的自主性不足问题,将深度强化学习和多任务学习方法相结合,实现了多种操作任务策略网络的统一表达和学习,相比于人工设计任务状态判断与切换,提升了自主性与鲁棒性。
-
公开(公告)号:CN111942621A
公开(公告)日:2020-11-17
申请号:CN202010693554.X
申请日:2020-07-17
Applicant: 北京控制工程研究所
Abstract: 一种基于多任务学习的在轨自主加注控制方法及系统,属于空间技术领域。本发明方法包括:构建任务表达网络G和任务执行网络H,在在轨加注虚拟环境中使用强化学习方法训练与微调任务表达网络G和任务执行网络H,直到两个网络的参数收敛,形成多任务策略网络F;在一种基于多任务学习的在轨自主加注控制系统中,将真实机械臂运动状态复位,使用多任务策略网络F对真实机械臂进行控制,使真实机械臂执行相应动作,完成在轨加注操作任务。针对多种操作任务独立学习引起的自主性不足问题,将深度强化学习和多任务学习方法相结合,实现了多种操作任务策略网络的统一表达和学习,相比于人工设计任务状态判断与切换,提升了自主性与鲁棒性。
-
-
-
-
-
-
-
-