-
公开(公告)号:CN105574896A
公开(公告)日:2016-05-11
申请号:CN201610072455.3
申请日:2016-02-01
Applicant: 衢州学院
Abstract: 本发明公开了一种面向高分辨率视频的高效背景建模方法。它包括以下步骤:对视频数据进行处理,将视频转化为灰度化视频;基于灰度化视频的亮度等级建立视频中场景的背景模型。本发明能够在不增加任何软硬件计算资源的条件下,高效地实现对固定场景的高分辨率视频的背景建模,克服了传统逐个像素点建模法所导致的计算冗余和存储冗余问题,降低了建模运算量,提高了计算效率,减小了存储资源的消耗。
-
公开(公告)号:CN110910399B
公开(公告)日:2020-09-15
申请号:CN201911032734.7
申请日:2019-10-28
Applicant: 衢州学院
Abstract: 本发明提供了一种基于决策层融合的无纹理场景区域分割方法和装置,该方法和装置并不依靠视频中的纹理特征进行视场区域分割,其是综合利用视频的不同图像帧中像素点的色调特征值、轮廓特征值和动态性特征值,并且对特征值维度和特征值值域进行约束,以及该对像素点的动态性的统计时间跨度进行限定以避免统计时间跨度过大而降低动态性统计准确性情况的发生,该方法和装置还采用基于决策层而非特征层的融合策略对关于不同特征值的场景区域分割处理结果进行处理,此外还引入并行计算模式同时获取色调特征值、综合轮廓特征值和近期动态特征值,这样能够显著地提高其整体运算的效率,从而提高对视频复杂场景区域分割的有效性、正确性和运算效率。
-
公开(公告)号:CN110827293B
公开(公告)日:2020-09-08
申请号:CN201911033545.1
申请日:2019-10-28
Applicant: 衢州学院
Abstract: 本发明提供了一种基于决策层融合的无色彩场景区域分割方法和装置,该方法和装置利用无色彩视频中不同图像帧中像素点的亮度特征值、纹理特征值、轮廓特征值和动态性特征值,并且对特征值维度和特征值值域进行约束,以及该对像素点的动态性的统计时间跨度进行限定以避免统计时间跨度过大而降低动态性统计准确性情况的发生,该方法和装置还解决了对无色彩视频进行场景区域分割是存在的准确性与运算效率低、甚至失效等问题。
-
公开(公告)号:CN110910399A
公开(公告)日:2020-03-24
申请号:CN201911032734.7
申请日:2019-10-28
Applicant: 衢州学院
Abstract: 本发明提供了一种基于决策层融合的无纹理场景区域分割方法和装置,该方法和装置并不依靠视频中的纹理特征进行视场区域分割,其是综合利用视频的不同图像帧中像素点的色调特征值、轮廓特征值和动态性特征值,并且对特征值维度和特征值值域进行约束,以及该对像素点的动态性的统计时间跨度进行限定以避免统计时间跨度过大而降低动态性统计准确性情况的发生,该方法和装置还采用基于决策层而非特征层的融合策略对关于不同特征值的场景区域分割处理结果进行处理,此外还引入并行计算模式同时获取色调特征值、综合轮廓特征值和近期动态特征值,这样能够显著地提高其整体运算的效率,从而提高对视频复杂场景区域分割的有效性、正确性和运算效率。
-
公开(公告)号:CN110807398A
公开(公告)日:2020-02-18
申请号:CN201911033547.0
申请日:2019-10-28
Applicant: 衢州学院
Abstract: 本公开是关于视场区域分割方法及装置。该方法包括:获取视频中每个像素点在HSI颜色空间中的色调特征值和强度特征值;获取所述视频中每个像素点的复合纹理特征值;获取所述视频中每个像素点的近期动态性特征值;根据所述每个像素点的复合纹理特征值、近期动态性特征值以及HSI颜色空间中的色调特征值和强度特征值,生成每个像素点对应的综合视觉特征向量;根据所述综合视觉特征向量对所述视频中的视场进行区域分割。该技术方案生成的综合视觉特征向量中的颜色空间信息只包括HSI颜色空间信息,将最终生成的综合视觉特征向量的维度缩短,取值范围缩小,从而减少了聚类分析的运算量,缩短了视频的视场区域分割的时间。
-
公开(公告)号:CN110796073A
公开(公告)日:2020-02-14
申请号:CN201911032771.8
申请日:2019-10-28
Applicant: 衢州学院
Abstract: 本发明提供了一种无纹理场景视频中对特定目标区域的侦测方法和装置,该方法和装置综合利用无纹理视频中的颜色、轮廓和动态性等不同时空信息构建视频场景区域类型描述器,以此对特定目标区域进行侦测和确定,该视频场景区域类型描述器各个信息通道上的特征提取和计算方法简单高效、实时性好,视频样本学习效率高,并可实现实时在线训练;此外,该方法和装置在计算视频场景区域类型描述器各通道的类型值时,还引入了并行计算的方法,显著地提高了方法的整体运算效率,从而克服了现有方法实施在无纹理视频中对特定目标区域检测时运算效率低、实时性差,甚至会失效性的问题。
-
公开(公告)号:CN105651377B
公开(公告)日:2018-12-07
申请号:CN201610016709.X
申请日:2016-01-11
Applicant: 衢州学院
IPC: G01H17/00
Abstract: 本发明涉及一种基于视频数据挖掘的非接触式物体振动频率测量方法。解决现有技术中采用在物体上安装接触式振动传感器测量物体振动所存在的技术复杂、成本高昂,以及被测物无法安装振动传感器的问题。方法步骤包括构建数字相机理想相机噪声模型,进行拍摄,然后根据理想相机噪声模型计算视频中每个像素振动频率,获取待测物体的振动频率。本发明的优点是克服了传统接触式物体振动频率测量方法的不足;克服了现有基于机器视觉的非接触式物体振动频率测量方法受约束条件限制的不足;既适用于离线视频数据,也适用于在线视频数据;方法采用设备简单、成本低廉、适应性好,适用对象广。
-
公开(公告)号:CN105574896B
公开(公告)日:2018-03-27
申请号:CN201610072455.3
申请日:2016-02-01
Applicant: 衢州学院
Abstract: 本发明公开了一种面向高分辨率视频的高效背景建模方法。它包括以下步骤:对视频数据进行处理,将视频转化为灰度化视频;基于灰度化视频的亮度等级建立视频中场景的背景模型。本发明能够在不增加任何软硬件计算资源的条件下,高效地实现对固定场景的高分辨率视频的背景建模,克服了传统逐个像素点建模法所导致的计算冗余和存储冗余问题,降低了建模运算量,提高了计算效率,减小了存储资源的消耗。
-
公开(公告)号:CN105651377A
公开(公告)日:2016-06-08
申请号:CN201610016709.X
申请日:2016-01-11
Applicant: 衢州学院
IPC: G01H17/00
CPC classification number: G01H17/00
Abstract: 本发明涉及一种基于视频数据挖掘的非接触式物体振动频率测量方法。解决现有技术中采用在物体上安装接触式振动传感器测量物体振动所存在的技术复杂、成本高昂,以及被测物无法安装振动传感器的问题。方法步骤包括构建数字相机理想相机噪声模型,进行拍摄,然后根据理想相机噪声模型计算视频中每个像素振动频率,获取待测物体的振动频率。本发明的优点是克服了传统接触式物体振动频率测量方法的不足;克服了现有基于机器视觉的非接触式物体振动频率测量方法受约束条件限制的不足;既适用于离线视频数据,也适用于在线视频数据;方法采用设备简单、成本低廉、适应性好,适用对象广。
-
公开(公告)号:CN110796073B
公开(公告)日:2021-05-25
申请号:CN201911032771.8
申请日:2019-10-28
Applicant: 衢州学院
Abstract: 本发明提供了一种无纹理场景视频中对特定目标区域的侦测方法和装置,该方法和装置综合利用无纹理视频中的颜色、轮廓和动态性等不同时空信息构建视频场景区域类型描述器,以此对特定目标区域进行侦测和确定,该视频场景区域类型描述器各个信息通道上的特征提取和计算方法简单高效、实时性好,视频样本学习效率高,并可实现实时在线训练;此外,该方法和装置在计算视频场景区域类型描述器各通道的类型值时,还引入了并行计算的方法,显著地提高了方法的整体运算效率,从而克服了现有方法实施在无纹理视频中对特定目标区域检测时运算效率低、实时性差,甚至会失效性的问题。
-
-
-
-
-
-
-
-
-