-
公开(公告)号:CN112287977A
公开(公告)日:2021-01-29
申请号:CN202011067602.0
申请日:2020-10-06
Applicant: 武汉大学
IPC: G06K9/62
Abstract: 本发明公开了一种基于边界框关键点距离的目标检测方法。在计算机视觉领域目标检测的研究中,正负样本分类和边界框回归损失是重中之重,关乎了目标检测内容物的定位精度和识别精度。目前目标检测方法中基于交并比的正负样本分类和框回归损失的研究虽然卓有成效,但仍然面临着诸多挑战。因此,本发明基于边界框关键点之间的距离发明了关键点交并比定义方法,针对正负样本分类不准确问题,该方法更加准确的描述边界框之间的差距。针对目前回归损失计算效率低,准确度差等问题,依据关键点交并比,设计一个新的回归损失函数。本发明所公开的方法能适用于各种类型的目标检测网络,对目标检测框的定位框取准确度和检测精度都有一定程度的提高。
-
公开(公告)号:CN111462191A
公开(公告)日:2020-07-28
申请号:CN202010328677.3
申请日:2020-04-23
Applicant: 武汉大学
IPC: G06T7/246
Abstract: 本发明公开了一种基于深度学习的非局部滤波器无监督光流估计方法。为了解决现实中缺少真实光流标签以及构造有标签光流数据耗时费力的问题,本发明设计了一种无监督深度网络架构,减少了对标注数据的依赖。为了提高无监督光流模型的精度,针对光流计算面临的3大难点问题,即噪声、边界模糊、遮挡,首先开发了一种基于卷积神经网络的非局部滤波器,对光流场进行滤波精炼,有效的处理了噪声与边界模糊。该非局部滤波器能从视频数据中自主学习到滤波权重,泛化能力强。其次利用精炼后的光流对遮挡进行推理,根据光流和遮挡图设计全新的损失函数。本发明不需要任何标注数据,以端到端的训练模式获取高精度的运动信息,且能较好的获取目标运动细节。
-