基于发光笔的人机交互方法及系统

    公开(公告)号:CN112363635B

    公开(公告)日:2023-04-28

    申请号:CN202011323399.9

    申请日:2020-11-23

    摘要: 本发明涉及基于发光笔的人机交互系统,其包括发光笔、摄像头和主机;发光笔包括圆柱状发光体,圆柱状发光体以其端部触控屏幕;摄像头用于从发光体侧面捕获包含发光体的图像并将其发送至主机,摄像头光轴平行于屏幕;主机接收摄像头捕获的图像,并确定发光体上的平行于屏幕的目标截面在图像中的起始像素点和终止像素点,目标截面为摄像头光轴所在的平面;主机还用于根据起始像素点和终止像素点确定目标截面中心相对于摄像头的第一位置坐标,由第一位置坐标以及摄像头相对于屏幕的第二位置坐标,确定目标截面中心相对于屏幕的第三位置坐标并将其转换成屏幕主机程序空间坐标,以及据此进行响应。本发明可实现对屏幕的无遮挡、无死角触控,提高人机交互效率。

    一种基于稀疏位姿调整的移动机器人的Gmapping建图方法

    公开(公告)号:CN111427370A

    公开(公告)日:2020-07-17

    申请号:CN202010515565.9

    申请日:2020-06-09

    发明人: 赵光哲 陶永 江山

    IPC分类号: G05D1/02 G01C21/20 G01S17/89

    摘要: 本发明涉及机器人领域,具体提供了一种基于稀疏位姿调整的移动机器人的Gmapping建图方法,包括:S1:初始化粒子位姿与分布,S2:扫描匹配;S3:计算采样位置的目标分布;S4:计算高斯近似;S5:更新第i个粒子的权重;S6:更新粒子地图;S3,S4的同时并行S3’位姿图构建及S4’闭环约束。本发明解决了原有Gmapping算法在较少粒子时存在的边界模糊、缺失、及滑移的技术问题,构建精度高,边界清晰完整,稳定性好。

    一种基于光谱角度密度峰值的高光谱图像标签噪声检测方法

    公开(公告)号:CN108596244A

    公开(公告)日:2018-09-28

    申请号:CN201810361740.6

    申请日:2018-04-20

    IPC分类号: G06K9/62

    摘要: 本发明公开了一种基于光谱角度密度峰值的高光谱图像标签噪声检测方法。包括以下步骤:首先利用光谱角度映射器度量每一类中不同训练样本之间的差异程度。其次基于密度峰值聚类算法利用训练样本之间的光谱角度获得每个训练样本的局部密度。然后,基于每一类训练样本的局部密度引入k最近邻域算法作为决策函数来检测并去除噪声标签。最后,利用支持向量机评估所提出的方法针对高光谱图像监督分类中噪声标签检测和去除的有效性。本发明通过光谱角度映射器、密度峰值聚类和k最近邻域的算法特性融合,能够同时有效的提升高光谱监督分类器和监督空谱分类方法的分类精度。此外,该发明还能有效提升在噪声图像的场景分类和训练样本数目少的情况下的分类性能。

    基于发光笔的人机交互方法及系统

    公开(公告)号:CN112363635A

    公开(公告)日:2021-02-12

    申请号:CN202011323399.9

    申请日:2020-11-23

    摘要: 本发明涉及基于发光笔的人机交互系统,其包括发光笔、摄像头和主机;发光笔包括圆柱状发光体,圆柱状发光体以其端部触控屏幕;摄像头用于从发光体侧面捕获包含发光体的图像并将其发送至主机,摄像头光轴平行于屏幕;主机接收摄像头捕获的图像,并确定发光体上的平行于屏幕的目标截面在图像中的起始像素点和终止像素点,目标截面为摄像头光轴所在的平面;主机还用于根据起始像素点和终止像素点确定目标截面中心相对于摄像头的第一位置坐标,由第一位置坐标以及摄像头相对于屏幕的第二位置坐标,确定目标截面中心相对于屏幕的第三位置坐标并将其转换成屏幕主机程序空间坐标,以及据此进行响应。本发明可实现对屏幕的无遮挡、无死角触控,提高人机交互效率。

    一种基于稀疏位姿调整的移动机器人的Gmapping建图方法

    公开(公告)号:CN111427370B

    公开(公告)日:2020-09-04

    申请号:CN202010515565.9

    申请日:2020-06-09

    发明人: 赵光哲 陶永 江山

    IPC分类号: G05D1/02 G01C21/20 G01S17/89

    摘要: 本发明涉及机器人领域,具体提供了一种基于稀疏位姿调整的移动机器人的Gmapping建图方法,包括:S1:初始化粒子位姿与分布,S2:扫描匹配;S3:计算采样位置的目标分布;S4:计算高斯近似;S5:更新第i个粒子的权重;S6:更新粒子地图;S3,S4的同时并行S3’位姿图构建及S4’闭环约束。本发明解决了原有Gmapping算法在较少粒子时存在的边界模糊、缺失、及滑移的技术问题,构建精度高,边界清晰完整,稳定性好。

    基于稠密卷积神经网络的仿人机器人表情识别方法

    公开(公告)号:CN109753922A

    公开(公告)日:2019-05-14

    申请号:CN201811640642.2

    申请日:2018-12-29

    摘要: 本发明公开了一种基于稠密卷积神经网络的仿人机器人表情识别方法,包括:根据方向梯度直方图特征和支持向量机算法对单帧图像之中的人脸位置进行定位,使用回归树集合对人脸图像的人脸基准点进行匹配,根据匹配结果对人脸图像进行校正和记录,使用稠密卷积神经网络对校正之后的人脸图像进行识别,根据识别结果获得表情分类,将表情分类的结果传输给仿人机器人。本发明提供的技术方案在人脸定位和人脸校正的基础上,使用稠密卷积神经网络将人脸特征提取和表情分类的流程进行结合,以实现对人脸的表情识别,最后将分类结果实时提供给仿人机器人,从而达到人机交互的效果,在保证准确率的同时还具有较高的实时性,有效保障了行人的安全。