-
公开(公告)号:CN107481279B
公开(公告)日:2020-07-07
申请号:CN201710351600.6
申请日:2017-05-18
Applicant: 华中科技大学
Abstract: 本发明公开了一种单目视频深度图计算方法,其特征在于,包括,将待恢复的视频按帧分解成图片;提取每一帧的图片特征点;匹配特征点,形成特征点轨迹;计算全局旋转矩阵和平移向量;优化相机参数;计算选定帧的稠密光流;计算选定帧的深度值获得其深度图。本发明技术方案的方法,采用基于物理机制从运动中恢复结构(SFM)的深度估计方法,将稠密光流作为匹配。这种方法不需要任何训练样本,且没有利用分割以及平面拟合等优化方式,计算量较小。同时,该方法解决了现有技术中由场景稀疏重建到稠密重建过程中,尤其是无纹理区域中,不可能得到所有像素点的深度值的难题,提高了计算效率的同时,保证了深度图的精确度。
-
公开(公告)号:CN107133977A
公开(公告)日:2017-09-05
申请号:CN201710351601.0
申请日:2017-05-18
Applicant: 华中科技大学
Abstract: 本发明公开了一种基于概率产生模型的快速立体匹配方法,包括,提取双目相机所拍摄的一组图像的每个像素点的特征;按照固定间隔采样获得一张图像的采样特征点,并匹配另一张图像上的特征点,筛选出稳定的匹配点;对图像进行三角化分割,获得图像对应的三角集合;确定每个三角形三个顶点上的视差以及该三角形区域视差平面的参数;利用平面参数获得每个视差的先验概率,结合匹配代价计算出视差的后验概率,进一步地获得图像的初始视差图;优化初始视差图。本发明还公开了上述方法的应用。本发明技术方案的方法,提供了一种更加鲁棒的匹配点置信度衡量方法,可以获得更加鲁棒的稳定匹配点;还可以快速进行立体匹配,改善匹配效果。
-
公开(公告)号:CN107018400B
公开(公告)日:2018-06-19
申请号:CN201710227433.4
申请日:2017-04-07
Applicant: 华中科技大学
IPC: H04N13/156 , H04N13/128 , G06N3/08 , G06N3/04
Abstract: 一种将2D视频转换成3D视频的方法,属于模式识别和计算机视觉领域,目的在于消除现有技术场景深度估计和视点合成带来的不可预测误差,同时大大提高计算速度。本发明包括训练阶段和使用阶段,训练阶段依次包括数据输入、特征提取、特征融合、视点合成和参数更新步骤;使用阶段依次包括数据输入、特征提取、特征融合和视点合成步骤。训练阶段对106级的左右格式的3D立体视频电影片进行训练,将场景深度估计和视点合成同时进行优化求解,确定参数,保证了输出右路视图的像素级精度预测,减少了将2D视频转3D视频分成两个任务操作带来的误差;训练完成以后,即可直接进行2D视频到3D视频的转换,可以大大提高转制效率,保证最后输出的3D立体视频的精度。
-
公开(公告)号:CN107018400A
公开(公告)日:2017-08-04
申请号:CN201710227433.4
申请日:2017-04-07
Applicant: 华中科技大学
CPC classification number: G06N3/0454 , G06N3/084 , H04N13/139
Abstract: 一种将2D视频转换成3D视频的方法,属于模式识别和计算机视觉领域,目的在于消除现有技术场景深度估计和视点合成带来的不可预测误差,同时大大提高计算速度。本发明包括训练阶段和使用阶段,训练阶段依次包括数据输入、特征提取、特征融合、视点合成和参数更新步骤;使用阶段依次包括数据输入、特征提取、特征融合和视点合成步骤。训练阶段对106级的左右格式的3D立体视频电影片进行训练,将场景深度估计和视点合成同时进行优化求解,确定参数,保证了输出右路视图的像素级精度预测,减少了将2D视频转3D视频分成两个任务操作带来的误差;训练完成以后,即可直接进行2D视频到3D视频的转换,可以大大提高转制效率,保证最后输出的3D立体视频的精度。
-
公开(公告)号:CN106548180B
公开(公告)日:2019-04-12
申请号:CN201610922185.0
申请日:2016-10-21
Applicant: 华中科技大学
Abstract: 本发明公开了一种获取模糊不变图像的特征描述子的方法,先将图像划分为多个局部图块,对局部图块细分进行密集采样得到LPQ+;将每个局部图块对应的多个LPQ+合并获得局部图块的特征描述,然后对所有的局部图块的特征描述子进行FV(Fisher Vector)编码并进行相应正则化处理来获得更高维度的模糊图像特征描述。本发明提供的这种获取模糊不变图像的特征描述子的方法,针对模糊图像识别基于LPQ提出的一种更高效、更准确的模糊图像识别特征描述子LPQ+,具有判别性高和特征维度较低的优势;FV编码提高了传统描述子的综合性能;而FV编码与LPQ+的结合,相较于FV编码与传统描述子的结合,在识别精度和识别效率上均具有更好效果。
-
公开(公告)号:CN105868707B
公开(公告)日:2019-03-08
申请号:CN201610182274.6
申请日:2016-03-28
Applicant: 华中科技大学
Abstract: 本发明公开了一种基于深度图像信息的坠床行为实时检测方法,包括:(1)通过深度传感器获取室内场景的深度图像;(2)更新深度图像中的跟踪区域;(3)通过不断变化偏移尺度,提取步骤(2)得到的跟踪区域中各像素的八邻域差分特征;(4)获取头部区域;(5)定位头部中心;(6)获取上半身区域;(7)优化头部定位;(8)人体确认;(9)提取高度特征;(10)坠床检测:采用训练好的坠床分类器对上述高度特征向量进行分类检测,获取坠床检测结果。本发明提出的基于深度图像的坠床行为实时检测方法,通过随机森林分类器获取头部区域,优化头部定位保证定位准确性,使用支撑向量机检测坠床,保证了本方法具有较高的准确度与鲁棒性。
-
公开(公告)号:CN106548180A
公开(公告)日:2017-03-29
申请号:CN201610922185.0
申请日:2016-10-21
Applicant: 华中科技大学
CPC classification number: G06K9/4671 , G06K9/00268 , G06K9/48 , G06K9/481 , G06K9/6256 , G06K2009/485
Abstract: 本发明公开了一种获取模糊不变图像的特征描述子的方法,先将图像划分为多个局部图块,对局部图块细分进行密集采样得到LPQ+;将每个局部图块对应的多个LPQ+合并获得局部图块的特征描述,然后对所有的局部图块的特征描述子进行FV(Fisher Vector)编码并进行相应正则化处理来获得更高维度的模糊图像特征描述。本发明提供的这种获取模糊不变图像的特征描述子的方法,针对模糊图像识别基于LPQ提出的一种更高效、更准确的模糊图像识别特征描述子LPQ+,具有判别性高和特征维度较低的优势;FV编码提高了传统描述子的综合性能;而FV编码与LPQ+的结合,相较于FV编码与传统描述子的结合,在识别精度和识别效率上均具有更好效果。
-
公开(公告)号:CN105868707A
公开(公告)日:2016-08-17
申请号:CN201610182274.6
申请日:2016-03-28
Applicant: 华中科技大学
CPC classification number: G06K9/00771 , G06K9/00362 , G06K9/6269
Abstract: 本发明公开了一种基于深度图像信息的坠床行为实时检测方法,包括:(1)通过深度传感器获取室内场景的深度图像;(2)更新深度图像中的跟踪区域;(3)通过不断变化偏移尺度,提取步骤(2)得到的跟踪区域中各像素的八邻域差分特征;(4)获取头部区域;(5)定位头部中心;(6)获取上半身区域;(7)优化头部定位;(8)人体确认;(9)提取高度特征;(10)坠床检测:采用训练好的坠床分类器对上述高度特征向量进行分类检测,获取坠床检测结果。本发明提出的基于深度图像的坠床行为实时检测方法,通过随机森林分类器获取头部区域,优化头部定位保证定位准确性,使用支撑向量机检测坠床,保证了本方法具有较高的准确度与鲁棒性。
-
公开(公告)号:CN106599805B
公开(公告)日:2019-05-21
申请号:CN201611092073.3
申请日:2016-12-01
Applicant: 华中科技大学
Abstract: 本发明公开了一种基于有监督数据驱动的单目视频深度估计方法,包括以下步骤:(1)获取样本视频序列以及相应的深度序列,作为训练数据集合;(2)使用基于跟踪的超像素分割方法对训练数据集合进行分割,提取各个分割单元的特征;(3)构建结合卷积神经网络与时空条件随机场的网络模型;(4)使用训练数据集合以及分割结果与相应特征,对深度时空卷积神经网络场模型进行训练;(5)对待估计的视频序列进行分割,提取各个分割单元的特征;(6)将待估计的视频序列以及分割结果与相应特征,输入已经训练好的模型中,得到深度序列。本发明兼顾时空一致性与层次关系准确性,提高了单目立体视频质量。
-
公开(公告)号:CN107481279A
公开(公告)日:2017-12-15
申请号:CN201710351600.6
申请日:2017-05-18
Applicant: 华中科技大学
Abstract: 本发明公开了一种单目视频深度图计算方法,其特征在于,包括,将待恢复的视频按帧分解成图片;提取每一帧的图片特征点;匹配特征点,形成特征点轨迹;计算全局旋转矩阵和平移向量;优化相机参数;计算选定帧的稠密光流;计算选定帧的深度值获得其深度图。本发明技术方案的方法,采用基于物理机制从运动中恢复结构(SFM)的深度估计方法,将稠密光流作为匹配。这种方法不需要任何训练样本,且没有利用分割以及平面拟合等优化方式,计算量较小。同时,该方法解决了现有技术中由场景稀疏重建到稠密重建过程中,尤其是无纹理区域中,不可能得到所有像素点的深度值的难题,提高了计算效率的同时,保证了深度图的精确度。
-
-
-
-
-
-
-
-
-