基于卷积神经网络的场景流估计方法

    公开(公告)号:CN108932725A

    公开(公告)日:2018-12-04

    申请号:CN201810589261.X

    申请日:2018-06-08

    Abstract: 本发明公开了基于卷积神经网络的场景流估计方法,属于计算机视觉领域。该方法将卷积神经网络与场景流估计相结合,可以从大量无标注的数据集中无监督学习得到场景流,进而提出了一种新的网络架构,命名为SF-Net,端到端地进行场景流无监督学习,该模型能够从输入的图像中直接提取出场景流。在估计场景流时,通过使用预先训练好的网络模型,只需通过前向计算就可以得到场景流,能够满足实时应用要求。

    面向复杂工业环境的铁路油罐车车号定位与识别方法

    公开(公告)号:CN105654140A

    公开(公告)日:2016-06-08

    申请号:CN201610003517.5

    申请日:2016-01-04

    CPC classification number: G06K9/6256 G06K9/60 G06K9/6267

    Abstract: 本发明提供的是一种面向复杂工业环境的铁路油罐车车号定位与识别方法。对灰度图像进行最大稳定极值区域检测得到灰度图像上的极值区域以及对灰度图像的反色图像进行检测得到反灰度图像上的极值区域。以灰度图像及其反色图像作为要处理的2通道图像,对每个通道的图像分别进行极值区域的筛选。从极值区域中筛选出有效的区域对,对满足条件的相邻区域对进行合并得到三联体区域,以1个有效的三联体区域为1个序列,筛选出符合条件的有效序列,进而对序列进行输出得到文本区域。利用4点矫正对定位出的文本区域进行倾斜矫,对矫正后的文本区域进行字符分割,用训练好的分类器对字符进行识别。本方法对铁路油罐车车号区域具有较好的定位效果。

    一种铁路油罐车车辆编号的识别方法

    公开(公告)号:CN104657726A

    公开(公告)日:2015-05-27

    申请号:CN201510117537.0

    申请日:2015-03-18

    Abstract: 本发明公开了一种铁路油罐车车辆编号的识别方法。包括以下步骤:利用摄像机拍摄油罐车车体局部侧面灰度图像;对灰度图像计算边缘;对边缘图像的字符区域进行定位;对车体局部侧面灰度图像二值化;对二值图像的字符区域进行形态学处理,去除孤立点,连接断裂字符;对字符进行分割处理,确定单个字符区域的位置和范围;将分割后的字符输入通用字符识别引擎,输出结果。本发明具有实施成本低,自动化程度高的特点。

    一种基于Transformer特征金字塔网络的无监督光流估计方法

    公开(公告)号:CN114187331A

    公开(公告)日:2022-03-15

    申请号:CN202111506127.7

    申请日:2021-12-10

    Abstract: 本发明属于计算机视觉技术领域,具体涉及一种基于Transformer特征金字塔网络的无监督光流估计方法,包括构建基于Transformer特征金字塔网络;利用Transformer模型通过再注意力机制操作增强特征金字塔网络对图像的特征提取能力;构建光流估计网络,使得网络能够进行光流预测;对遮挡区域的像素进行遮挡补偿处理,并设计整体网络训练的损失函数对网络进行无监督训练,得到速度更快,精度更高的无监督光流估计模型。本发明可增强特征金字塔层对图像的特征提取能力,并对图像中的遮挡像素进行遮挡补偿处理,以提高光流估计的精度。

    基于卷积神经网络的场景流估计方法

    公开(公告)号:CN108932725B

    公开(公告)日:2021-10-26

    申请号:CN201810589261.X

    申请日:2018-06-08

    Abstract: 本发明公开了基于卷积神经网络的场景流估计方法,属于计算机视觉领域。该方法将卷积神经网络与场景流估计相结合,可以从大量无标注的数据集中无监督学习得到场景流,进而提出了一种新的网络架构,命名为SF‑Net,端到端地进行场景流无监督学习,该模型能够从输入的图像中直接提取出场景流。在估计场景流时,通过使用预先训练好的网络模型,只需通过前向计算就可以得到场景流,能够满足实时应用要求。

    一种基于3D局部刚性和深度图引导各向异性平滑的场景流估计方法

    公开(公告)号:CN106485675B

    公开(公告)日:2019-06-14

    申请号:CN201610854331.0

    申请日:2016-09-27

    Abstract: 本发明涉及一种基于3D局部刚性和深度图引导各向异性平滑的场景流估计方法。S1利用RGB‑D传感器同时获取对齐的纹理图像和深度图像;构建场景流估计能量泛函,结合3D局部刚性表面假设和全局约束方法求解稠密场景流,场景流能量函数的形式为;利用纹理图像和深度图像,结合3D局部刚性表面假设设计数据项;结合深度图驱动的各向异性扩散张量和全变分正则化设计平滑项;创建图像金字塔,采用由粗到精的求解策略;利用对偶方法求解场景流,引入场景流辅助变量。本发明利用彩色图像的像素间色差与像素之间的位置关系来共同确定空域滤波器权值,进而解决了修复过程中边缘失真的问题,为减少修复误差,结合颜色信息与结构相似度系数共同确定值域滤波器权值。

    基于多目立体视觉场景流的剧烈运动检测方法

    公开(公告)号:CN107341815A

    公开(公告)日:2017-11-10

    申请号:CN201710404056.7

    申请日:2017-06-01

    Abstract: 本发明提供的是一种基于多目立体视觉场景流的剧烈运动检测方法。一:利用标定好的多目相机获取多组图像序列;二:对图像序列进行预处理;三:场景流能量泛函数据项的设计;四:场景流能量泛函平滑项的设计;五:能量泛函地优化求解;从步骤二中得到的图像金字塔最低分辨率图像开始使用计算模型计算;六:场景流运动区域的聚类;七:构建运动方向离散程度评估模型,判断是否是剧烈运动;八:构建运动区域动能大小评估模型;九:设定阈值,且连续n帧满足评估条件时则引发报警。本发明采用的是基于多目立体视觉的场景流估计,通过已经标定好的多目相机获取来自同一场景的多组图像序列。利用3维场景流可以有效地进行剧烈运动检测。

    基于3维流场正则化的变分场景流估计方法

    公开(公告)号:CN104680544B

    公开(公告)日:2017-08-04

    申请号:CN201510117536.6

    申请日:2015-03-18

    Abstract: 本发明公开了一种基于3维流场正则化的变分场景流估计方法。包括以下步骤:利用已经标定好的左右摄像机获取左右图像序列;将3维流场进行正则化得到场景流数据项;将2维光流平滑项向3维空间扩展,得到场景流驱动各向异性的场景流平滑项;根据方向信息设计扩散张量并进行本征分解,得到每个方向上的扩散强度,从而进行各向异性平滑,得到深度平滑项;将场景流数据项、场景流平滑项和深度平滑项合并,构建能量泛函;使用变分极小化的方法,得到能量泛函对应的Euler方程的解;利用超松弛迭代对Euler方程进行迭代求解,得到优化后的场景流和深度信息。本发明具有鲁棒性高,场景流精确的优点。

    基于6自由度场景流聚类的3D运动目标检测方法

    公开(公告)号:CN106952292A

    公开(公告)日:2017-07-14

    申请号:CN201710151290.3

    申请日:2017-03-14

    Abstract: 本发明提供的是一种基于6自由度场景流聚类的3D运动目标检测方法。利用深度相机获取场景的对齐的彩色图像和深度图像;构建6自由度场景流估计能量泛函;能量泛函的最优求解;根据场景流的定义,利用旋转向量和平移向量计算出场景流;根据场景流信息进行初步分析,确定移动目标的大体数目;根据场景流提取运动特征信息,获取每个点的特征向量;利用ISODATA算法对特征向量进行聚类分析,提取出运动目标。本发明利用邻域约束结合亮度恒常、深度恒常约束构建数据项;利用全变分平滑对旋转向量和平移向量进行平滑约束。完成场景流求解后,利用ISODATA算法对场景流进行聚类分析,提取出3D运动目标。

Patent Agency Ranking