-
公开(公告)号:CN112561922B
公开(公告)日:2024-03-01
申请号:CN202011344486.2
申请日:2020-11-26
Applicant: 北京大学
IPC: G06T7/11 , G06T5/80 , G06N3/08 , G06N3/0464
Abstract: 本发明公布了一种基于神经网络的畸变点云分割方法,利用神经网络模型的拟合能力,在原始空间点云的基础上,构建用于车载畸变点云分割的深度网络模型,包括:点云提升网络模块,提升空间规范化点云网络模块,编码预测网络模块,能够准确高效地分割任意畸变的三维点云,属于三维点云分割技术领域。
-
公开(公告)号:CN116681708A
公开(公告)日:2023-09-01
申请号:CN202210167587.X
申请日:2022-02-23
Applicant: 北京大学
IPC: G06T7/10
Abstract: 本发明公开了一种凸面镜反射图像的生成、语义分割方法及装置,涉及凸面镜反射图像领域。所述生成方法包括:构建世界坐标系与相机坐标系,并基于凸面镜反射图像的姿态参数,建立世界坐标系与相机坐标系的关系;对置于所述相机坐标系的平面图像进行径向扭曲;将扭曲图像围绕世界坐标系的X轴与Y轴旋转,得到平面图像的凸面镜反射图像。本发明依靠建立的凸面镜模拟模块来模拟凸面镜成像,并通过对抗学习使得模拟的凸面镜图像和真实的图像在几何形态上接近,进而提升真实凸面镜反射图像的语义分割精度。
-
公开(公告)号:CN108961182B
公开(公告)日:2021-06-01
申请号:CN201810659779.6
申请日:2018-06-25
Applicant: 北京大学
Abstract: 本发明公布了一种快速准确的竖直方向灭点检测方法,并利用此竖直方向灭点检测方法实现视频的快速扭正。首先将视频数据逐帧分离成图片集;然后通过竖直方向灭点检测方法获得竖直方向灭点坐标信息;再利用竖直方向灭点坐标信息,计算图片变换的单应矩阵;最后将变换后的图片集合生成新视频;包括:提取图片阶段、竖直方向灭点检测阶段、图片扭正阶段和视频合成阶段。本发明依靠竖直方向单灭点信息进行视频扭正,鲁棒性好,计算速度快。将灭点检测转化为对偶空间中三角函数曲线参数的计算,将检测的直线近似成曲线的切线,使得远距离的灭点检测更准确,得到的视频图像更加符合人们的视觉习惯。
-
公开(公告)号:CN112750088A
公开(公告)日:2021-05-04
申请号:CN202011486626.X
申请日:2020-12-16
Applicant: 北京大学
Abstract: 本发明公布了一种基于线性规划的视频图像自动扭正和稳像的方法,首先将原视频逐帧分离得到图片集,再将估计得到的原视频相邻两帧之间的仿射变换矩阵作为运动信息,并提取每一帧内的直线段,估计竖直方向的灭点位置和水平线位置;然后构建线性规划模型,将用于矫正每一帧的变换矩阵为线性规划模型的待优化参数,通过求解模型获得与视频帧数等数量的射影变换矩阵;之后对原视频逐帧变换,并将变换后的帧合成得到新视频。采用本发明优化得到的一系列射影变换矩阵可以同时完成扭正和稳像,处理后的视频有更好的视觉效果,处理速度快,得到的结果具有全局最优性。
-
公开(公告)号:CN112561807B
公开(公告)日:2022-08-26
申请号:CN202011344480.5
申请日:2020-11-26
Applicant: 北京大学
Abstract: 本发明公布了一种基于卷积神经网络的端到端径向畸变校正方法,通过构建可微分的畸变生成和畸变校正模块,采用基于采样网格的损失函数和基于图像重投影的损失函数,通过生成海量径向畸变数据,用于训练畸变参数估计网络,学习径向畸变的几何特征,适用于任意场景下不同畸变程度的图片,实现高效准确地对输入的畸变图像进行校正。
-
公开(公告)号:CN109035327B
公开(公告)日:2021-10-29
申请号:CN201810658881.4
申请日:2018-06-25
Applicant: 北京大学
Abstract: 本发明公布了一种基于深度学习的全景相机姿态估计方法,基于深度卷积网络和消失点,对全景相机的三维朝向进行估计,只需给定单张全景图片即能较快地估计得到相机相对于世界的旋转矩阵;包括:图像数据采集、图像数据处理、建立用于全景相机姿态估计的新的网络结构PanoNet、训练PanoNet并预测估计全景相机姿态。本发明使用单张全景图片,能够在有遮挡,有空洞,弱纹理等场景下,估计全景相机相对于世界坐标系的旋转。方法的鲁棒性高。
-
公开(公告)号:CN112561807A
公开(公告)日:2021-03-26
申请号:CN202011344480.5
申请日:2020-11-26
Applicant: 北京大学
Abstract: 本发明公布了一种基于卷积神经网络的端到端径向畸变校正方法,通过构建可微分的畸变生成和畸变校正模块,采用基于采样网格的损失函数和基于图像重投影的损失函数,通过生成海量径向畸变数据,用于训练畸变参数估计网络,学习径向畸变的几何特征,适用于任意场景下不同畸变程度的图片,实现高效准确地对输入的畸变图像进行校正。
-
公开(公告)号:CN112750088B
公开(公告)日:2022-07-26
申请号:CN202011486626.X
申请日:2020-12-16
Applicant: 北京大学
Abstract: 本发明公布了一种基于线性规划的视频图像自动扭正和稳像的方法,首先将原视频逐帧分离得到图片集,再将估计得到的原视频相邻两帧之间的仿射变换矩阵作为运动信息,并提取每一帧内的直线段,估计竖直方向的灭点位置和水平线位置;然后构建线性规划模型,将用于矫正每一帧的变换矩阵为线性规划模型的待优化参数,通过求解模型获得与视频帧数等数量的射影变换矩阵;之后对原视频逐帧变换,并将变换后的帧合成得到新视频。采用本发明优化得到的一系列射影变换矩阵可以同时完成扭正和稳像,处理后的视频有更好的视觉效果,处理速度快,得到的结果具有全局最优性。
-
公开(公告)号:CN112561922A
公开(公告)日:2021-03-26
申请号:CN202011344486.2
申请日:2020-11-26
Applicant: 北京大学
Abstract: 本发明公布了一种基于神经网络的畸变点云分割方法,利用神经网络模型的拟合能力,在原始空间点云的基础上,构建用于车载畸变点云分割的深度网络模型,包括:点云提升网络模块,提升空间规范化点云网络模块,编码预测网络模块,能够准确高效地分割任意畸变的三维点云,属于三维点云分割技术领域。
-
公开(公告)号:CN109035327A
公开(公告)日:2018-12-18
申请号:CN201810658881.4
申请日:2018-06-25
Applicant: 北京大学
CPC classification number: G06T7/70 , G06T3/0043 , G06T3/60 , G06T2207/20081 , G06T2207/20084 , G06T2207/30244
Abstract: 本发明公布了一种基于深度学习的全景相机姿态估计方法,基于深度卷积网络和消失点,对全景相机的三维朝向进行估计,只需给定单张全景图片即能较快地估计得到相机相对于世界的旋转矩阵;包括:图像数据采集、图像数据处理、建立用于全景相机姿态估计的新的网络结构PanoNet、训练PanoNet并预测估计全景相机姿态。本发明使用单张全景图片,能够在有遮挡,有空洞,弱纹理等场景下,估计全景相机相对于世界坐标系的旋转。方法的鲁棒性高。
-
-
-
-
-
-
-
-
-