-
公开(公告)号:CN108932725B
公开(公告)日:2021-10-26
申请号:CN201810589261.X
申请日:2018-06-08
Applicant: 哈尔滨工程大学
Abstract: 本发明公开了基于卷积神经网络的场景流估计方法,属于计算机视觉领域。该方法将卷积神经网络与场景流估计相结合,可以从大量无标注的数据集中无监督学习得到场景流,进而提出了一种新的网络架构,命名为SF‑Net,端到端地进行场景流无监督学习,该模型能够从输入的图像中直接提取出场景流。在估计场景流时,通过使用预先训练好的网络模型,只需通过前向计算就可以得到场景流,能够满足实时应用要求。
-
公开(公告)号:CN107341815A
公开(公告)日:2017-11-10
申请号:CN201710404056.7
申请日:2017-06-01
Applicant: 哈尔滨工程大学
Abstract: 本发明提供的是一种基于多目立体视觉场景流的剧烈运动检测方法。一:利用标定好的多目相机获取多组图像序列;二:对图像序列进行预处理;三:场景流能量泛函数据项的设计;四:场景流能量泛函平滑项的设计;五:能量泛函地优化求解;从步骤二中得到的图像金字塔最低分辨率图像开始使用计算模型计算;六:场景流运动区域的聚类;七:构建运动方向离散程度评估模型,判断是否是剧烈运动;八:构建运动区域动能大小评估模型;九:设定阈值,且连续n帧满足评估条件时则引发报警。本发明采用的是基于多目立体视觉的场景流估计,通过已经标定好的多目相机获取来自同一场景的多组图像序列。利用3维场景流可以有效地进行剧烈运动检测。
-
公开(公告)号:CN111582483B
公开(公告)日:2022-12-13
申请号:CN202010409546.8
申请日:2020-05-14
Applicant: 哈尔滨工程大学
Abstract: 本发明的目的在于提供基于空间和通道联合注意力机制的无监督学习光流估计方法,首先构建一种融合空洞卷积的新型特征金字塔网络,并利用其提取包含更多运动信息的多尺度特征。之后基于空间和通道联合注意力机制构建光流估计网络,使网络能够学习到更有针对性的运动信息。最后基于正反一致性校验和Census变换构造遮挡感知的无监督损失函数,并利用其对网络进行无监督训练,得到性能更优的无监督光流估计模型。
-
公开(公告)号:CN108021857B
公开(公告)日:2021-12-21
申请号:CN201710717257.2
申请日:2017-08-21
Applicant: 哈尔滨工程大学
Abstract: 本发明公开了一种基于无人机航拍图像序列深度恢复的建筑物检测方法,属于建筑物检测技术领域。具体内容包括:无人机搭载单目相机采集图像序列;利用飞机的运动信息以及获取到的图像序列的空域和时域的关系,恢复出图像的视差;将视差转换为深度,人工的设定深度阈值来分割建筑物。本发明可以有效地估计出图像的深度,利用深度检测出建筑物。本发明首次使用了无人机图像序列深度恢复的方法,能够对建筑物进行有效的检测。
-
公开(公告)号:CN111582483A
公开(公告)日:2020-08-25
申请号:CN202010409546.8
申请日:2020-05-14
Applicant: 哈尔滨工程大学
Abstract: 本发明的目的在于提供基于空间和通道联合注意力机制的无监督学习光流估计方法,首先构建一种融合空洞卷积的新型特征金字塔网络,并利用其提取包含更多运动信息的多尺度特征。之后基于空间和通道联合注意力机制构建光流估计网络,使网络能够学习到更有针对性的运动信息。最后基于正反一致性校验和Census变换构造遮挡感知的无监督损失函数,并利用其对网络进行无监督训练,得到性能更优的无监督光流估计模型。
-
公开(公告)号:CN107665603B
公开(公告)日:2020-06-16
申请号:CN201710795417.5
申请日:2017-09-06
Applicant: 哈尔滨工程大学
Abstract: 本发明公开了一种判定车位占用的实时检测方法,属于机器视觉技术领域,具体涉及一种通过俯视的深度图融合卷积神经网络的检测方法来判定车位是否被正确占用的实时检测方法。其具体包括搭建双目立体相机、收集车辆样本和非车辆样本、设计并训练以卷积神经网络CarNet为基础的车辆检测模型、人工标定监控车位在相机图像中位置、得到监控场景下的深度图、对深度图分割初步得到车辆区域同时利用CarNet检测模型检测车辆、融合深度图与卷积神经网络结果得到可靠车辆检测框以及判定车位是否占用等步骤。本发明可广泛用于加油站、地下停车场等半露天或室内停车场,可准确输出车位占用情况,具有实施成本低,工作效率高、自动化能力强等优点,具有广阔的发展前景。
-
公开(公告)号:CN109543740B
公开(公告)日:2022-07-15
申请号:CN201811363392.2
申请日:2018-11-14
Applicant: 哈尔滨工程大学
IPC: G06V10/764 , G06V10/774 , G06V10/80 , G06V10/82 , G06K9/62 , G06N3/04 , G06N3/08
Abstract: 本发明提供一种基于生成对抗网络的目标检测方法,设计生成器,根据类别标签生成各类样本,设计代理器,检测生成器的数据,提供伪真值,并将代理器生成的数据应用于目标检测器的训练,设计目标检测器,判断生成数据是否有利于目标检测精度的提升,设计对抗器,在训练阶段,判别数据是来源于真实数据还是生成数据,生成器与判别器交替训练,在测试阶段,待检测数据直接输入目标检测器,得到检测结果。本发明生成网络生成的样本与真实样本结合可丰富训练数据,提高检测精度,目标检测网络对生成网络提供反馈,使生成的样本更加真实,代理器生成的数据直接应用于目标检测器的训练,无需耗费大量的人力物力进行标注,本发明结构简单,易于部署。
-
公开(公告)号:CN107993255B
公开(公告)日:2021-11-19
申请号:CN201711220774.5
申请日:2017-11-29
Applicant: 哈尔滨工程大学
IPC: G06T7/269
Abstract: 本发明属于计算机视觉领域,提供了一种基于卷积神经网络的稠密光流估计方法,以解决现有技术计算时间长,计算量大,计算效率不高的问题,包含如下步骤:(1)提取运动图像信息:构建全卷积网络架构,然后在输入层输入两幅通道数都为C的图像,从卷积层8输出光流_6;(2)生成光流:构建稠密光流生成模型。光流_6输入反卷积层1,反卷积层2输出光流_5,反卷积层3输出光流_4,反卷积层4输出光流_3,反卷积层5输出光流_2,反卷积层6输出光流_1;(3)模型训练:用最终损失函数进行训练;(4)光流估计:从全卷积网络架构的输入层输入图像对,输出最终预测的光流。本发明能够有效地利用先验知识,模型可以预先训练,大大减少了计算时间。
-
公开(公告)号:CN109543740A
公开(公告)日:2019-03-29
申请号:CN201811363392.2
申请日:2018-11-14
Applicant: 哈尔滨工程大学
Abstract: 本发明提供一种基于生成对抗网络的目标检测方法,设计生成器,根据类别标签生成各类样本,设计代理器,检测生成器的数据,提供伪真值,并将代理器生成的数据应用于目标检测器的训练,设计目标检测器,判断生成数据是否有利于目标检测精度的提升,设计对抗器,在训练阶段,判别数据是来源于真实数据还是生成数据,生成器与判别器交替训练,在测试阶段,待检测数据直接输入目标检测器,得到检测结果。本发明生成网络生成的样本与真实样本结合可丰富训练数据,提高检测精度,目标检测网络对生成网络提供反馈,使生成的样本更加真实,代理器生成的数据直接应用于目标检测器的训练,无需耗费大量的人力物力进行标注,本发明结构简单,易于部署。
-
公开(公告)号:CN108021857A
公开(公告)日:2018-05-11
申请号:CN201710717257.2
申请日:2017-08-21
Applicant: 哈尔滨工程大学
Abstract: 本发明公开了一种基于无人机航拍图像序列深度恢复的建筑物检测方法,属于建筑物检测技术领域。具体内容包括:无人机搭载单目相机采集图像序列;利用飞机的运动信息以及获取到的图像序列的空域和时域的关系,恢复出图像的视差;将视差转换为深度,人工的设定深度阈值来分割建筑物。本发明可以有效地估计出图像的深度,利用深度检测出建筑物。本发明首次使用了无人机图像序列深度恢复的方法,能够对建筑物进行有效的检测。
-
-
-
-
-
-
-
-
-