-
公开(公告)号:CN113160381B
公开(公告)日:2023-02-03
申请号:CN202110309277.2
申请日:2021-03-23
Applicant: 清华大学
Abstract: 本申请提出一种多视角动物三维几何与纹理自动化重建方法和装置,涉及计算机视觉技术领域,其中,方法包括:获取单个动物的多视角图像和初始表面模型;对多视角图像进行处理,获取分割图和关键点;根据关键点和分割图对所述初始表面模型进行交替姿态拟合和几何优化,获取表面几何模型;对表面几何模型进行纹理采样,获取纹理图。由此,提高多视角动物三维几何与纹理自动化重建效率。
-
公开(公告)号:CN111583316B
公开(公告)日:2022-08-23
申请号:CN202010352385.3
申请日:2020-04-28
Applicant: 清华大学
IPC: G06T7/33
Abstract: 本发明提出一种视觉自主定位系统实现方法,包括以下步骤:使用RGBD传感器采集场景的RGB图像和深度图像,从中计算点云图像;提取所述点云图像的特征点和特征平面信息;利用所述特征点和特征平面进行全局地图匹配,计算传感器位姿;维护关键帧序列和全局地图并进行全局优化。根据本发明实施例的视觉自主定位系统实现方法,算法鲁棒性强,实现自主定位的同时可以实时获得场景的点云模型,可广泛应用于无人机、机器人等多种移动平台在室内和室外环境下的自主导航等。
-
公开(公告)号:CN111476828A
公开(公告)日:2020-07-31
申请号:CN202010231337.9
申请日:2020-03-27
Applicant: 清华大学
Abstract: 本发明公开了一种多视点动物群体跟踪方法及装置,其中,方法包括:获取相机内部参数和外部参数;根据内部参数和外部参数求解基础矩阵并计算不同视点对极约束;根据不同视点对极约束去除单视点检测错误区域,并且检测动物骨架特征,以估计动物运动方向;根据动物姿态特征区分不同的运动动物身份ID,得到跟踪结果。根据本申请的跟踪方法,可以有效提高跟踪的准确性和可靠性,具有较强的鲁棒性,简单易实现。
-
公开(公告)号:CN110599540A
公开(公告)日:2019-12-20
申请号:CN201910716814.8
申请日:2019-08-05
Applicant: 清华大学
Abstract: 本发明公开了一种多视点相机下的实时三维人体体型与姿态重建方法及装置,其中,该方法包括:将多个相机架围出捕捉区域,通过相机标定方法标定多个相机的相机内参和相机外参;通过标定后的多个相机在捕捉区域内采集人体图像并处理以使人体图像转码成RGB图像,利用预先训练好的卷积神经网络对RGB图像进行检测并生成每个视角下的人体关节二维坐标信息,并对其进行三角化得到人体三维关节坐标信息;利用人体三维关节坐标信息优化预设人体模型中的姿态参数和形状参数,再通过时域优化稳定优化后的预设人体模型以得到人体三维重建模型。该方法利用深度学习来完成人体姿态的估计,在试验环境下,可以实时对多人的人体模型进行拟合与渲染。
-
公开(公告)号:CN111582285B
公开(公告)日:2023-05-23
申请号:CN202010351681.1
申请日:2020-04-28
Applicant: 清华大学
Abstract: 本发明提出一种点云图像的平面提取方法,包括以下步骤:利用传感器采集环境信息获得点云图像并对点云图像进行分块,得到多个点云快;提取所述多个点云块中具有平面特征的点云块;将所述具有平面特征的点云块连接形成特定平面。根据本发明实施例的点云图像的平面提取方法,算法简单、效率高,提高了自然场景中平面信息的提取效率,可广泛应用于多种视觉应用,具有良好的可扩展性。
-
公开(公告)号:CN112862901A
公开(公告)日:2021-05-28
申请号:CN202110193303.X
申请日:2021-02-20
Applicant: 清华大学 , 浙江未来技术研究院(嘉兴)
Abstract: 本申请提出一种基于多视视频与时空神经辐射场的实验动物视场模拟方法,包括:搭建实验环境,放入至少一只实验动物;搭建同步的多相机系统,并对多相机系统进行标定,采集同步的多视角视频数据;训练基于神经辐射场的时空新视角合成网络F1;利用姿态检测网络F2检测实验动物的头部姿态和眼睛位置;确定每只实验动物的视角方向,利用时空新视角合成网络F1渲染动物视角下的场景图像,获得实验动物的视场模拟图像。本申请可以有效解决现有技术不能实现非侵入式的实验动物真实视场模拟的问题。
-
公开(公告)号:CN111583316A
公开(公告)日:2020-08-25
申请号:CN202010352385.3
申请日:2020-04-28
Applicant: 清华大学
IPC: G06T7/33
Abstract: 本发明提出一种视觉自主定位系统实现方法,包括以下步骤:使用RGBD传感器采集场景的RGB图像和深度图像,从中计算点云图像;提取所述点云图像的特征点和特征平面信息;利用所述特征点和特征平面进行全局地图匹配,计算传感器位姿;维护关键帧序列和全局地图并进行全局优化。根据本发明实施例的视觉自主定位系统实现方法,算法鲁棒性强,实现自主定位的同时可以实时获得场景的点云模型,可广泛应用于无人机、机器人等多种移动平台在室内和室外环境下的自主导航等。
-
-
-
-
-
-