一种面向月球车作业平台的可视化虚拟维护指引方法

    公开(公告)号:CN113888582A

    公开(公告)日:2022-01-04

    申请号:CN202111206999.1

    申请日:2021-10-18

    Applicant: 东南大学

    Abstract: 本发明公开了一种面向月球车作业平台的可视化虚拟维护指引方法,先设计故障检测系统以及故障应对维修方案;生成月球车作业平台三维模型;提取作业平台三维模型的二维框线图,显示于用户终端的平板屏幕上,用于和实物进行配准;配准后确定终端与作业平台的相对坐标;将标志物标记于作业平台重要位置,用相机对画面中贴于作业平台平面的标志物位姿做出估计,构建以终端为中心的虚拟环境;故障发生后,在屏幕对应的坐标生成虚拟标志,用于提示航天员需要进行的维修操作;维修操作结束后,检测系统评估维修结果并给出后续操作方案。本方法稳定性高,增强现实工作范围能够覆盖整个封闭的较复杂环境,能满足车辆维修的工作需要。

    基于虚拟现实的陪护机器控制系统

    公开(公告)号:CN111267099A

    公开(公告)日:2020-06-12

    申请号:CN202010112652.X

    申请日:2020-02-24

    Applicant: 东南大学

    Abstract: 本发明公开了一种基于虚拟现实的陪护机器控制系统,其中:视觉单元,获取陪护机器周围的环境信息,并传递至虚拟场景生成单元和计算单元;计算单元,接收陪护机器控制指令,并依据环境信息计算得到陪护机器执行控制指令的动作序列;虚拟场景生成单元,用于将环境信息生成虚拟现实场景,并结合动作序列显示于所述触屏显示屏;触屏显示屏,用于接收针对动作序列的触屏调整指令并反馈至计算单元进行执行,接收针对动作序列的确认指令。采用上述方案,增加人机交互,实现陪护机器和人之间、陪护机器和环境之间自然、有效的交互,避免未知错误发生的概率,降低陪护机器对用户及所处环境造成危害的可能性。

    一种基于重力视运动的SINS自对准与纬度计算方法

    公开(公告)号:CN104296780B

    公开(公告)日:2017-04-05

    申请号:CN201410549590.3

    申请日:2014-10-16

    Applicant: 东南大学

    Abstract: 本发明公开一种基于重力视运动的SINS自对准与纬度计算方法,包括以下步骤:1)由陀螺仪和加速度计测量值构建重力视运动向量;2)采用参数辨识与重构方法消除仪表随机噪声的影响;3)由三个时刻的重力视运动向量求取重力视运动锥体底圆的中心点坐标以及底圆半径;4)构建锥体中心轴向量,通过向量运算方法完成初始对准;5)根据锥体中各向量几何关系完成纬度L计算。

    陪护机器人的控制装置
    5.
    发明授权

    公开(公告)号:CN111267129B

    公开(公告)日:2022-07-29

    申请号:CN202010113344.9

    申请日:2020-02-24

    Applicant: 东南大学

    Abstract: 本发明公开了一种陪护机器人的控制装置,其中:装置本体,包括滑轨、指槽滑块和摇杆,所述指槽滑块活动设置于滑轨,用于接受按压;所述摇杆,用于控制所述陪护机器人;姿态解析装置,用于解析所述装置本体的三维姿态,当所述装置本体的三维姿态符合预设姿态时,控制所述陪护机器人进行对应的动作;触觉感知装置,用于感知所述指槽滑块接受的按压,并启动与按压信息对应的用户模式,控制装置本体进行相应的振动反馈。实现用户对控制装置的高效、便携控制,提高控制正确率,实现人机之间的有效交互。

    复杂光照条件下基于视触融合的机械臂自主移动抓取方法

    公开(公告)号:CN113696186A

    公开(公告)日:2021-11-26

    申请号:CN202111177462.7

    申请日:2021-10-09

    Applicant: 东南大学

    Abstract: 本发明公开了复杂光照条件下基于视触融合的机械臂自主移动抓取方法,主要包括对目标位置的趋近控制和对环境信息的反馈控制。该方法在复杂光照条件下,加权融合预选区域的可见光与深度图像并基于深度神经网络完成对目标物体的识别与定位,并驱动移动机械臂不断趋近目标物体;另外根据传感器模块与外界环境及目标物体的接触力信息,调整机械臂位姿;同时融合目标物体的视觉与触觉信息,选取目标物体的最佳抓取位姿与合适的抓取力大小。该方法提升了物体定位精度与抓取准确率,并有效防止了机械臂的碰撞损坏与失稳,且减少了被抓物体的有害形变。

    陪护机器人的控制装置
    7.
    发明公开

    公开(公告)号:CN111267129A

    公开(公告)日:2020-06-12

    申请号:CN202010113344.9

    申请日:2020-02-24

    Applicant: 东南大学

    Abstract: 本发明公开了一种陪护机器人的控制装置,其中:装置本体,包括滑轨、指槽滑块和摇杆,所述指槽滑块活动设置于滑轨,用于接受按压;所述摇杆,用于控制所述陪护机器人;姿态解析装置,用于解析所述装置本体的三维姿态,当所述装置本体的三维姿态符合预设姿态时,控制所述陪护机器人进行对应的动作;触觉感知装置,用于感知所述指槽滑块接受的按压,并启动与按压信息对应的用户模式,控制装置本体进行相应的振动反馈。实现用户对控制装置的高效、便携控制,提高控制正确率,实现人机之间的有效交互。

    基于虚拟现实的陪护机器控制系统

    公开(公告)号:CN111267099B

    公开(公告)日:2023-02-28

    申请号:CN202010112652.X

    申请日:2020-02-24

    Applicant: 东南大学

    Abstract: 本发明公开了一种基于虚拟现实的陪护机器控制系统,其中:视觉单元,获取陪护机器周围的环境信息,并传递至虚拟场景生成单元和计算单元;计算单元,接收陪护机器控制指令,并依据环境信息计算得到陪护机器执行控制指令的动作序列;虚拟场景生成单元,用于将环境信息生成虚拟现实场景,并结合动作序列显示于所述触屏显示屏;触屏显示屏,用于接收针对动作序列的触屏调整指令并反馈至计算单元进行执行,接收针对动作序列的确认指令。采用上述方案,增加人机交互,实现陪护机器和人之间、陪护机器和环境之间自然、有效的交互,避免未知错误发生的概率,降低陪护机器对用户及所处环境造成危害的可能性。

    复杂光照条件下基于视触融合的机械臂自主移动抓取方法

    公开(公告)号:CN113696186B

    公开(公告)日:2022-09-30

    申请号:CN202111177462.7

    申请日:2021-10-09

    Applicant: 东南大学

    Abstract: 本发明公开了复杂光照条件下基于视触融合的机械臂自主移动抓取方法,主要包括对目标位置的趋近控制和对环境信息的反馈控制。该方法在复杂光照条件下,加权融合预选区域的可见光与深度图像并基于深度神经网络完成对目标物体的识别与定位,并驱动移动机械臂不断趋近目标物体;另外根据传感器模块与外界环境及目标物体的接触力信息,调整机械臂位姿;同时融合目标物体的视觉与触觉信息,选取目标物体的最佳抓取位姿与合适的抓取力大小。该方法提升了物体定位精度与抓取准确率,并有效防止了机械臂的碰撞损坏与失稳,且减少了被抓物体的有害形变。

    基于复式优化数据集的表情识别和情绪跟踪方法

    公开(公告)号:CN113903064A

    公开(公告)日:2022-01-07

    申请号:CN202111173985.4

    申请日:2021-10-08

    Applicant: 东南大学

    Abstract: 本发明公开了一种基于复式优化数据集的表情识别和情绪跟踪方法,包括:S1:对人脸表情数据按照功能分类划分并进行构建;S2:利用置信学习算法复式分析辅助人工混合方式分别处理对应功能数据集,得到噪声率低的数据集;S3:基于各数据集,通过CNN模型进行训练,得到面部表情成分实时识别结果;S4:基于表情识别单帧结果,设计情绪跟踪算法,得到情绪跟踪结果。本发明在原有大样本数据集的基础上,利用置信学习算法复式分析辅助人工混合方式处理数据,解决原始数据集中噪声数据占比大、识别难的问题,提高表情识别准确率,并基于此设计相应算法完成情绪跟踪等功能场景应用。

Patent Agency Ranking