一种基于多模态地图的协同定位方法

    公开(公告)号:CN113932814B

    公开(公告)日:2024-04-02

    申请号:CN202111163279.1

    申请日:2021-09-30

    Abstract: 本发明公开了一种基于多模态地图的协同定位通过将激光雷达与视觉相机扫描得到的不同环境信息进行融合,构成一份集成了激光几何模态和和视觉纹理模态的多模态地图,以达到无人车在环境中精准的定位与导航的效果。区别于传统的SLAM方法,结合了激光几何模态快速匹配的优势以及视觉纹理mark标记的准确匹配,利用构建出的全新多模态地图,使用组合信息得以更准确地感知周围环境,相较现有方案定位更加精准。

    一种基于关键点识别的跳绳计数检测系统及方法

    公开(公告)号:CN114100103B

    公开(公告)日:2022-10-18

    申请号:CN202111265277.3

    申请日:2021-10-28

    Abstract: 本发明公开了一种基于关键点识别的跳绳计数检测系统及方法。通过图像采集模块采集跳绳运动的视频图像;通过图像识别模块识别图像帧;设定判定阈值并初始化;通过动作检测模块进行状态判定;通过数据处理模块,处理数据,生成可视化数据;通过数据显示模块,在手机app中显示当前跳绳信息;本发明可实时检测,也可输入保存的视频进行检测。可用于单人检测,也可用于多人检测。测试误差小,且检测过程中无需专用的可穿戴设备或者专用的可计数跳绳,仅需普通的智能手机即可完成检测,成本低。对跳绳运动的推广和发展起到了一定的贡献。

    一种基于卷积神经网络的狗脸识别方法

    公开(公告)号:CN113128341A

    公开(公告)日:2021-07-16

    申请号:CN202110292577.4

    申请日:2021-03-18

    Abstract: 本发明公开了一种基于卷积神经网络的狗脸识别方法,首先采集狗脸图像,构建用于模型训练的狗脸数据集,然后进行图像预处理;再构建识别网络模型;采用残差结构构建卷积神经网络作为特征提取网络,即识别网络模型,采用加法角余量损失作为输出层的损失函数;使用训练数据集并采用随机梯度下降法训练识别网络模型及调参优化;最后根据测试协议,使用测试数据集对训练好的识别网络模型进行准确率评估。本发明采用残差网络构建识别网络模型,对狗脸图像的特征进行精确提取并且细节保留完整,利用加法角余量损失函数对特征进行分类,使得识别结果更加准确,具有较强的鲁棒性,从而实现非接触式狗脸的个体识别,对社会具有重要意义。

    一种基于关键点识别的跳绳计数检测系统及方法

    公开(公告)号:CN114100103A

    公开(公告)日:2022-03-01

    申请号:CN202111265277.3

    申请日:2021-10-28

    Abstract: 本发明公开了一种基于关键点识别的跳绳计数检测系统及方法。通过图像采集模块采集跳绳运动的视频图像;通过图像识别模块识别图像帧;设定判定阈值并初始化;通过动作检测模块进行状态判定;通过数据处理模块,处理数据,生成可视化数据;通过数据显示模块,在手机app中显示当前跳绳信息;本发明可实时检测,也可输入保存的视频进行检测。可用于单人检测,也可用于多人检测。测试误差小,且检测过程中无需专用的可穿戴设备或者专用的可计数跳绳,仅需普通的智能手机即可完成检测,成本低。对跳绳运动的推广和发展起到了一定的贡献。

    一种基于多模态地图的协同定位方法

    公开(公告)号:CN113932814A

    公开(公告)日:2022-01-14

    申请号:CN202111163279.1

    申请日:2021-09-30

    Abstract: 本发明公开了一种基于多模态地图的协同定位通过将激光雷达与视觉相机扫描得到的不同环境信息进行融合,构成一份集成了激光几何模态和和视觉纹理模态的多模态地图,以达到无人车在环境中精准的定位与导航的效果。区别于传统的SLAM方法,结合了激光几何模态快速匹配的优势以及视觉纹理mark标记的准确匹配,利用构建出的全新多模态地图,使用组合信息得以更准确地感知周围环境,相较现有方案定位更加精准。

    一种基于深度学习的单张图片的运动估计系统及方法

    公开(公告)号:CN113538505A

    公开(公告)日:2021-10-22

    申请号:CN202110672305.7

    申请日:2021-06-17

    Abstract: 本发明公开了一种基于深度学习的单张图片的运动估计系统及方法,首先拍摄具有运动状态的物体的视频集,制作相同时间戳的前后两帧的运动图片对,构建数据集。然后构建场景信息提取网络,用于提取输入图片场景信息SE;构建运动信息估计网络,用于提取并估计输入图片运动信息ME。构建信息融合网络,用于融合场景信息和运动信息估计结果,得到具有运动估计效果的输出图片。本发明方法基于图片级和像素级对指定的输入图片进行重建,并在重建过程中对图片中部分物体的轮廓进行合理偏移,从而实现对单张图片的运动估计,将深度学习技术引入到运动估计领域中。

    一种基于多目结构的三维重建装置及方法

    公开(公告)号:CN114092633A

    公开(公告)日:2022-02-25

    申请号:CN202111187058.8

    申请日:2021-10-12

    Abstract: 本发明公开了一种基于多目结构的三维重建装置及方法。首先,通过自主设计的基于多目结构的三维重建装置获取所需数据,解决了多相机间的全景扫描和位姿估计以进行后续室内三维场景的重建或者全景图的生成。并且,本发明通过融合多个传感器的信息利用因子图优化的方式提出了一个视觉‑轮速计紧耦合框架以实现高精度和鲁棒性的状态估计和重建。本发明通过三维重建装置来限定相机的部分运动一致性从而约束相机自由度,并采用因子图优化的方式通过所提出的紧耦合框架对相机运动进行更为准确的估计,使得重建结果更加准确。

    一种多全景图融合三维重建的方法

    公开(公告)号:CN113409442A

    公开(公告)日:2021-09-17

    申请号:CN202110522224.9

    申请日:2021-05-13

    Abstract: 本发明公开了一种多全景图融合三维重建的方法;首先通过扫描平台获取室内场景的RGB图与深度图;然后进行相机运动定位;通过对获取的室内场景的RGB图像以及对应的深度图进行预处理,以构建单张3D全景图;再进行多张全景图的数据获取及构建;之后进行多全景图融合,最后通过融合后的多全景图实现室内场景的抗噪三维重建完成。本发明方法结合了传统slam优质算法和基于3D全景图的优势,可以得到更为准确的室内场景重建效果,实现更高质量的重建,并且本发明方通过限定其运动一致性来共同跟踪未同步的相机,而无需依赖于明显的视差或快门同步,使得重建结果更加准确。

Patent Agency Ranking