-
公开(公告)号:CN109977884A
公开(公告)日:2019-07-05
申请号:CN201910247797.8
申请日:2019-03-29
Applicant: 北京易达图灵科技有限公司
Abstract: 本发明实施例提供一种目标跟随方法和装置,其中方法包括:基于跟随设备上装设的视觉传感装置获取当前图像;将当前图像输入至目标跟随模型,获取目标跟随模型输出的当前动作指令;其中,目标跟随模型是基于样本图像、样本动作指令和样本标识训练得到的;基于当前动作指令控制跟随设备进行目标跟随。本发明实施例提供的方法和装置,计算资源消耗较小,简单方便,无需额外配备加速设备,即可实现当前动作指令的实时输出,提高了跟随设备的安全性和实时性,避免了由于延时导致跟丢跟随目标的问题。此外,在模型训练过程中,无需人工标注跟随目标,仅需通过样本标识评价目标跟随和避障结果,降低了人力成本和时间成本损耗,提高了模型训练效率。
-
公开(公告)号:CN109993106A
公开(公告)日:2019-07-09
申请号:CN201910247682.9
申请日:2019-03-29
Applicant: 北京易达图灵科技有限公司
IPC: G06K9/00
Abstract: 本发明实施例提供一种避障方法和装置,其中方法包括:基于避障设备上装设的单目视觉传感模块获取实时图像;将实时图像输入至避障模型,获取避障模型输出的动作指令;其中,避障模型是基于样本图像和样本图像对应的样本动作指令和样本避障标识训练得到的;基于动作指令控制避障设备避障。本发明实施例提供的方法和装置,通过单目视觉传感模块获取实时图像,相比传统的双目相机,成本更加低廉。通过训练得到的避障模型,基于实时图像输出动作指令进行自动避障,在实际操作中计算资源消耗较小,简单方便,无需额外配备加速设备,即可实现动作指令的实时输出,保证避障设备在复杂环境下能够自动避障,提高了避障设备应用的安全性和稳定性。
-
公开(公告)号:CN109901589B
公开(公告)日:2022-06-07
申请号:CN201910247676.3
申请日:2019-03-29
Applicant: 北京易达图灵科技有限公司
IPC: G05D1/02
Abstract: 本发明实施例提供一种移动机器人控制方法和装置,其中方法包括:分别基于移动机器人上装设的定位传感装置和视觉传感装置获取当前定位信息和当前图像;将当前定位信息和当前图像输入至动作规划模型,获取动作规划模型输出的当前动作信息;其中,动作规划模型是基于样本定位信息、样本图像、样本动作信息和样本标识训练得到的;基于当前动作信息控制移动机器人。本发明实施例提供的方法和装置,直接通过定位传感装置获取当前定位信息,无需高精度的感知系统,也无需大量的先验知识,实现简单,降低了研发人员的应用门槛,定位效率高。此外,通过预先训练的动作规划模型获取当前动作信息,迁移能力强,能够适应大多数场景,应用范围广,稳定性高。
-
公开(公告)号:CN109993793B
公开(公告)日:2021-09-07
申请号:CN201910247795.9
申请日:2019-03-29
Applicant: 北京易达图灵科技有限公司
IPC: G06T7/70
Abstract: 本发明实施例提供一种视觉定位方法及装置,该方法包括:获取第一时刻下,应用环境的RGB三维点云地图在相机成像平面上的投影图像;获取第二时刻场景的相机图像;对投影图像和相机图像进行图像特征匹配,获得投影图像和相机图像在像素坐标的匹配点集;根据投影图像和相机图像在像素坐标的匹配点集,获取相机的位姿变化量,结合已知的第一时刻的相机位姿,获取第二时刻的相机位姿。该方法具有较高的精度,通过低成本、高普及度的相机实现,能够有效降低视觉定位装置的成本。通过使用相机为传感器,在不增加传感器的条件下能开发更多应用,具有较强的拓展性。最后,由于目前相机模块的高集成度,从而能够实现定位装置的轻量化、小型化。
-
公开(公告)号:CN109993793A
公开(公告)日:2019-07-09
申请号:CN201910247795.9
申请日:2019-03-29
Applicant: 北京易达图灵科技有限公司
IPC: G06T7/70
Abstract: 本发明实施例提供一种视觉定位方法及装置,该方法包括:获取第一时刻下,应用环境的RGB三维点云地图在相机成像平面上的投影图像;获取第二时刻场景的相机图像;对投影图像和相机图像进行图像特征匹配,获得投影图像和相机图像在像素坐标的匹配点集;根据投影图像和相机图像在像素坐标的匹配点集,获取相机的位姿变化量,结合已知的第一时刻的相机位姿,获取第二时刻的相机位姿。该方法具有较高的精度,通过低成本、高普及度的相机实现,能够有效降低视觉定位装置的成本。通过使用相机为传感器,在不增加传感器的条件下能开发更多应用,具有较强的拓展性。最后,由于目前相机模块的高集成度,从而能够实现定位装置的轻量化、小型化。
-
公开(公告)号:CN109938973A
公开(公告)日:2019-06-28
申请号:CN201910247664.0
申请日:2019-03-29
Applicant: 北京易达图灵科技有限公司
Abstract: 本发明实施例提供一种视障人员导航方法和系统,其中方法包括:获取视觉传感装置采集的当前图像;将所述当前图像和当前路径信息输入至导航模型,获取所述导航模型输出的姿态信息;所述导航模型是基于样本图像、样本路径信息、样本姿态信息和样本标识训练得到的;基于所述姿态信息对视障人员进行语音导航。本发明实施例提供的方法和系统,通过将当前图像和当前路径信息输入到导航模型中,获取姿态信息对视障人员进行导航,将导航细化到对视障人员动作姿态的指导,确保视障人员能够接收到详尽的导航信息,即使在陌生环境或复杂环境下也能够沿导航路径行走并成功避开障碍物,保证了视障人员的行走安全,扩大了视障人员导航的应用范围。
-
公开(公告)号:CN109977884B
公开(公告)日:2021-05-11
申请号:CN201910247797.8
申请日:2019-03-29
Applicant: 北京易达图灵科技有限公司
Abstract: 本发明实施例提供一种目标跟随方法和装置,其中方法包括:基于跟随设备上装设的视觉传感装置获取当前图像;将当前图像输入至目标跟随模型,获取目标跟随模型输出的当前动作指令;其中,目标跟随模型是基于样本图像、样本动作指令和样本标识训练得到的;基于当前动作指令控制跟随设备进行目标跟随。本发明实施例提供的方法和装置,计算资源消耗较小,简单方便,无需额外配备加速设备,即可实现当前动作指令的实时输出,提高了跟随设备的安全性和实时性,避免了由于延时导致跟丢跟随目标的问题。此外,在模型训练过程中,无需人工标注跟随目标,仅需通过样本标识评价目标跟随和避障结果,降低了人力成本和时间成本损耗,提高了模型训练效率。
-
公开(公告)号:CN110084853A
公开(公告)日:2019-08-02
申请号:CN201910322780.4
申请日:2019-04-22
Applicant: 北京易达图灵科技有限公司
Abstract: 本发明实施例提供一种视觉定位方法及系统,包括:获取局部场景的实时双目图像和所述实时双目图像上一时间窗口的双目图像集;根据所述实时双目图像和所述双目图像集构建局部视觉点云图;将所述局部视觉点云图和全局视觉点云图进行匹配,根据匹配结果,获取相机位置信息和相机姿态信息。本发明实施例通过双目视觉相机获取实时双目图像,根据实时双目图像和上一时序内的双目图像对局部视觉点云图进行构建,并通过将局部视觉点云图和全局视觉点云图进行匹配,从而得到拍摄该实时双目图像的位姿信息,本发明实施例更易于部署和操作,提高了视觉定位效率,同时提供更加丰富的视觉纹理图像和视觉几何信息,拓展视觉定位的应用范围。
-
公开(公告)号:CN109901589A
公开(公告)日:2019-06-18
申请号:CN201910247676.3
申请日:2019-03-29
Applicant: 北京易达图灵科技有限公司
IPC: G05D1/02
Abstract: 本发明实施例提供一种移动机器人控制方法和装置,其中方法包括:分别基于移动机器人上装设的定位传感装置和视觉传感装置获取当前定位信息和当前图像;将当前定位信息和当前图像输入至动作规划模型,获取动作规划模型输出的当前动作信息;其中,动作规划模型是基于样本定位信息、样本图像、样本动作信息和样本标识训练得到的;基于当前动作信息控制移动机器人。本发明实施例提供的方法和装置,直接通过定位传感装置获取当前定位信息,无需高精度的感知系统,也无需大量的先验知识,实现简单,降低了研发人员的应用门槛,定位效率高。此外,通过预先训练的动作规划模型获取当前动作信息,迁移能力强,能够适应大多数场景,应用范围广,稳定性高。
-
-
-
-
-
-
-
-