基于视频分析的打架检测方法、系统、装置

    公开(公告)号:CN110298323A

    公开(公告)日:2019-10-01

    申请号:CN201910591102.8

    申请日:2019-07-02

    Abstract: 本发明属于模式识别领域,具体涉及一种基于视频分析的打架检测方法、系统、装置,旨在为了解决目前打架检测方法误检率高的问题。本发明方法包括:对输入视频的第t帧图像进行灰度化处理;基于第t帧图像与第t-1帧图像的灰度差值,提取t帧图像中灰度变化大于设定阈值的区域集合VIOREGt;获取第t帧图像中运动物体最小外接矩形集合MOTt;基于VIOREGt、MOTt,获取第t帧图像中剧烈运动物体集合VIOOBt;跟踪VIOOBt并记录其轨迹TRAIL;基于TRAIL确定各帧图像中人头位置,并判断人头运动的轨迹的一致性,当一致性小于设定阈值时判断当前输入视频中存在打架行为。本发明提高了检测的准确度,适合拥挤环境与非拥挤环境下打架检测,具有较广泛的适用范围。

    基于双向递归卷积神经网络的图像超分辨率增强方法

    公开(公告)号:CN106127684B

    公开(公告)日:2019-03-15

    申请号:CN201610458327.2

    申请日:2016-06-22

    Abstract: 本发明公开了一种基于双向递归卷积神经网络的图像超分辨率增强方法,包括模型训练和分辨率增强两部分;模型训练:获取多组包含有完全相同内容的高、低分辨率图像,并通过滑动窗口的方法提取高、低分辨率图像块序列,进而训练双向递归卷积神经网络模型;分辨率增强:将待处理低分辨率图像通过滑动窗口的方法分割成一组待处理低分辨率图像块,通过训练好的双向递归卷积神经网络模型生成对应的高分辨率图像块并融合为对应的高分辨率图像。该方法充分利用了双向递归卷积神经网络学习相邻图像块空间位置关系,进而得到包含有更多边缘纹理等细节信息的高分辨率图像。

    边缘引导的精细化显著性物体分割方法与系统、设备

    公开(公告)号:CN108805889A

    公开(公告)日:2018-11-13

    申请号:CN201810425630.1

    申请日:2018-05-07

    Abstract: 本发明涉及图像处理领域,具体涉及一种边缘引导的精细化显著性物体分割方法与系统、设备,旨在解决现有技术中分割结果比较粗糙的问题。本发明的显著性物体分割方法包括:通过分割掩码子网络前向传播获得输入图像不同尺度的分割掩码特征;通过边缘检测子网络前向传播获得输入图像不同尺度的边缘检测特征;通过反向融合分支网络融合分割掩码特征和边缘检测特征,得到显著性物体分割结果和边缘检测结果。此外,训练分割掩码子网络时利用焦点交叉熵损失函数监督训练过程,使得该子网络关注物体边缘区域等易错分类的样本。本发明的显著性物体分割结果更加精细化,保留了更精确的边缘区域细节信息。

    图像美感评估方法及装置
    64.
    发明公开

    公开(公告)号:CN107481218A

    公开(公告)日:2017-12-15

    申请号:CN201710564852.7

    申请日:2017-07-12

    Abstract: 本发明涉及计算机视觉与图像识别技术领域,具体提供一种图像美感评估方法及装置,旨在解决美感定量评估方法效率低的技术问题。为此目的,本发明提供的图像美感评估方法包括:依据预设的约束条件,以及模型训练后的美感等级分类模型和美感分数回归模型的模型参数,计算模型辅助参数;依据模型辅助参数,调整模型训练后的美感等级分类模型和美感分数回归模型的模型参数;依据调整后的模型参数重新计算所述模型辅助参数,直至模型辅助参数满足预设的迭代条件。同时,本发明提供的图像美感评估装置可以执行上述方法的各步骤。本发明的技术方案,可以显著提高美感定量评估方法的评估效率和准确性。

    图像自动裁剪方法
    65.
    发明公开

    公开(公告)号:CN106650737A

    公开(公告)日:2017-05-10

    申请号:CN201611041091.9

    申请日:2016-11-21

    Abstract: 本发明涉及一种图像自动裁剪方法。该方法包括:提取待裁剪图像的美感响应图和梯度能量图;对待裁剪图像密集提取候选裁剪图像;基于美感响应图,筛选候选裁剪图像;基于美感响应图和梯度能量图,估计筛选出的候选裁剪图像的构图分数,并将得分最高的候选裁剪图像确定为裁剪图像。本方案利用美感响应图去探究图片的美感影响区域,利用美感响应图确定美感保留部分,从而更加最大程度地保留了裁剪图像的高美感质量,同时本方案还利用梯度能量图去分析梯度分布规则,并且基于美感响应图和梯度能量图来评估裁剪图的构图分数。本发明实施例弥补了图像构图表达的缺陷,解决了如何提高图像自动裁剪的鲁棒性和精度的技术问题。

    基于视觉词典全局拓扑表达的图像分类方法

    公开(公告)号:CN103177264B

    公开(公告)日:2016-09-14

    申请号:CN201310081556.3

    申请日:2013-03-14

    Abstract: 本发明公开了一种基于视觉词典全局拓扑表达的图像分类方法,包括训练和识别两个过程,具体包括步骤:对已经标好类别的目标图像进行特征提取,对提取的特征在视觉词典上进行全局拓扑编码,对编码结果进行训练并建模;对未知类别的图像进行特征提取,对提取的特征在视觉词典上进行全局拓扑编码,将编码结果输入到训练得到的模型,获得目标图像的类别。由于全局拓扑表达对于图像的流形表达具有不变性,因此本发明采用基于视觉词典的全局拓扑表达提高图像识别的精度,并且该技术对于动态图像的理解具有重要的意义。本发明通过学习视觉词典的全局拓扑表达,可以准确的识别图像的类别,这一技术可广泛应用于安全检验,网络搜索和数字娱乐等领域。

    基于密集匹配子自适应相似性度量的RGB-D物体识别方法和装置

    公开(公告)号:CN105512674A

    公开(公告)日:2016-04-20

    申请号:CN201510831645.4

    申请日:2015-11-25

    CPC classification number: G06K9/6215 G06N3/02

    Abstract: 本发明公开了一种基于密集匹配子自适应相似性度量的RGB-D物体识别方法和装置,其中,该方法至少可以包括:提取待查询物体和参考物体的卷积神经网络特征;基于卷积神经网络特征,并融合RGB和深度信息,对参考物体和待查询物体进行密集匹配;基于密集匹配的结果,度量参考物体和所述待查询物体之间的相似性;基于参考物体和待查询物体之间的相似性,对待查询物体进行分类。通过本发明实施例,至少部分地解决了如何提高物体识别的鲁棒性的技术问题。

    用于鲁棒跟踪的自适应多特征融合的方法

    公开(公告)号:CN103237197B

    公开(公告)日:2016-04-13

    申请号:CN201310123512.2

    申请日:2013-04-10

    Abstract: 一种用于鲁棒跟踪的自适应多特征融合的方法,包括步骤:特征结构初始化;分别计算梯度直方图HOG特征、局部二值模式LBP特征、颜色直方图特征;利用增量式主成分分析IPCA算法计算特征的主分量,并得到特征的稳定性表征;更新子特征权重;根据粒子滤波的跟踪结果,计算子特征的更新率。本发明目标特征用梯度信息,纹理信息和颜色信息共同表达,复杂场景下提高了特征的描述能力。根据不同子特征在跟踪中不同的稳定性,实时更新其权重,提高融合后的特征的稳定性。本发明计算量小,可以满足实时性要求。

Patent Agency Ranking