-
公开(公告)号:CN101715111A
公开(公告)日:2010-05-26
申请号:CN200910234281.6
申请日:2009-11-16
Applicant: 南京邮电大学
Abstract: 视频监控中滞留物主自动搜寻方法属于视频监控中的图像处理的技术领域。其处理步骤为:a.检测出监控场景中可疑物体(滞留物),记录下物体的位置信息以便以后对物体继续实施监控。b.用关联算法找到关键帧画面,再根据滞留物主离滞留物距离最近原则找到关键人。c.提取关键人身上的颜色特征信息。d.对可疑物体实施监控,观察其是否滞留超出规定时间,以及是否有人取物。在滞留物滞留超出一定时间后,进行报警;若没有超出规定时间,则检测是否有人取物,若有,则对取物人进行颜色信息特征匹配,若一致,则不报警;否则,报警。
-
公开(公告)号:CN101715070A
公开(公告)日:2010-05-26
申请号:CN200910234279.9
申请日:2009-11-16
Applicant: 南京邮电大学
Abstract: 一种特定监控视频中的背景自动更新方法,用于户外监控时对光照变化、建筑投影随太阳高度变化、风吹树叶晃动这些变化,对这些变化能够实时、准确地进行更新。其方法如下:1)如果差分图像不存在变化区域,则没有动目标出现,判断结束。2)如果存在,原因待定。将此帧存储,采集下一帧,继续判断差分图像是否存在变化区域:①如果不存在,则认为之前是瞬间的光线变化,无响应。②如果存在,则将此帧存储,读取下一帧。3)对当前帧做同上方式处理,如果存在变化区域,则将此帧也存储起来。4)对这连续三帧图像做三帧差,若有变化区域,就认为有目标进入。否则就认为是其他原因,无响应。5)选择最新一帧替代原背景。
-
公开(公告)号:CN119559196A
公开(公告)日:2025-03-04
申请号:CN202411677137.0
申请日:2024-11-22
Applicant: 南京邮电大学
Abstract: 本发明公开了一种基于距离正则化项和局部特征增强的混合水平集图像分割方法,该方法包括获取待分割的图像;构造局部能量项,在局部能量项中引入局部方差,同时利用局部区域演化曲线内外局部灰度均值对局部能量项进行改进;构造全局能量项,利用局部灰度均值和全局灰度均值构造权重函数,将权重函数分别应用到全局能量项和局部能量项中;构造边界项,利用canny算子与图像卷积的结果构建边缘停止函数,用自适应的方法选择合理阶数,将高阶边界算子应用到边界项中;构造基于对数和多项式的距离正则化项,并将边缘指示函数引入到距离正则化项中;构建总体水平集能量函数;最后,使用梯度流下降法最小化总体水平集能量函数,得到图像分割的结果。
-
公开(公告)号:CN116912114A
公开(公告)日:2023-10-20
申请号:CN202310805114.2
申请日:2023-07-03
Applicant: 南京邮电大学
Abstract: 本发明公开了图像和视频处理技术领域内的一种基于高阶曲线迭代的无参考低光照图像增强方法,包括以下具体步骤:将用于训练的原始图像进行预处理得到预处理图像;将预处理图像输入到一个包含8层特征提取层和2层采样层的参数构建网络,提取预处理图像的特征,得到特征映射参数PM;将预处理图像和特征映射参数PM输入到一个高阶的迭代增强网络进行迭代增强得到临时增强图像;结合临时增强图像、原始图像和无参考损失函数优化特征映射参数PM,得到最优特征映射参数PMB;将预处理图像和最优特征映射参数PMB输入到高阶迭代增强网络得到最后增强图像。本发明增强了低光照图像的质量,可用于图像处理和下游高级视觉任务的图像预处理。
-
公开(公告)号:CN109741300B
公开(公告)日:2022-08-12
申请号:CN201811551784.1
申请日:2018-12-18
Applicant: 南京邮电大学
IPC: G06T7/00 , H04N19/186 , H04N19/625 , H04N19/136
Abstract: 本发明公开了一种适用于视频编码的图像显著性快速检测方法和装置,方法包括对YUV格式的视频帧图像,将亮度分量Y缩放并对整体图像做DCT变换,对变换系数取符号函数得到图像签名描述子后对其做逆DCT变换得到图像全局显著性;分别以亮度分量Y不重叠的预定图像块和色度分量UV的相应图像块为单位进行DCT变换,分别提取Y分量和UV分量各自的直流系数即强度特征和部分交流系数即纹理特征,使用对比度测量并融合后得到图像局部显著性;融合图像全局显著性和图像局部显著性得到最终显著性。本发明利用DCT变换来提取编码帧图像的特征,考虑了人眼观察图像的全局显著性和局部显著性,显著性计算准确且高效,适合用于视频编码前的检测以指导编码资源的优化分配。
-
公开(公告)号:CN111626159B
公开(公告)日:2022-07-26
申请号:CN202010410104.5
申请日:2020-05-15
Applicant: 南京邮电大学
Abstract: 本发明公开了一种基于注意力残差模块和支路融合的人体关键点检测方法。属于计算机视觉技术领域,包括如下步骤:用特征提取网络对输入图片进行特征处理,得到特征图;将特征图输入区域生成网络得到目标建议框;进行区域池化操作,得到感兴趣区域特征图;再将其输入卷积层中进行特征提取操作得到特征图一;利用支路一、支路二进行特征提取和融合;将两支路的结果叠加,先用反卷积进行分辨率复原再进行两倍的线性插值上采样;将关键点的位置建模为独热二进制掩码进行训练。本发明使得网络输出的信息多样性有所改善,更好地捕捉不同视野,不仅在简单场景下有效解决了检测关键点混乱的问题,其准确性和效率性得到提高,且能够良好的适应复杂场景。
-
公开(公告)号:CN109451309B
公开(公告)日:2022-07-26
申请号:CN201811471526.2
申请日:2018-12-04
Applicant: 南京邮电大学
IPC: H04N19/146 , H04N19/172 , H04N19/70
Abstract: 本发明公开了一种HEVC全I帧编码基于显著性的编码树单元(CTU)层码率分配方法,在全I帧编码配置下读入当前编码帧,以4×4像素块为单位计算当前帧不同区域的显著性;对像素块的显著性取平均作为CTU的显著性,并对整帧CTU层的显著性进行归一化,对整帧CTU层的显著性取平均作为帧层显著性;根据编码当前帧时的视频剩余比特数、缓冲区充满度和当前帧的显著性为当前帧分配目标比特;根据当前帧剩余比特数、当前CTU的帧内和帧间显著性权重为当前CTU分配目标比特;由码率模型计算当前CTU编码的Lagrange乘子(λ),再根据λ得到当前CTU的量化参数进行编码;更新剩余比特数和各种模型参数,直到全部I帧编码完成,该方法提高了HEVC全I帧编码的主观视觉质量。
-
公开(公告)号:CN113971675A
公开(公告)日:2022-01-25
申请号:CN202111191503.8
申请日:2021-10-13
Applicant: 南京邮电大学
Abstract: 本发明公开了一种基于拆分结构失真与信号误差的全参考图像质量评价方法,包括:读入参考图像与待测失真图像;计算各像素位置的梯度幅值以及参考图像的梯度均值;根据参考图像的梯度均值计算区分结构失真与平坦或纹理区域的两个梯度阈值;对结构失真特性区域,计算梯度幅值相似性的标准差作为结构失真分数,对信号误差特性区域,计算平均信号误差能量作为信号失真分数;融合结构失真分数与信号失真分数作为失真图像的最终质量分数;本方法分别采用适当的方法进行失真测量再融合成最终整体图像质量分数,更好地利用了人类视觉系统对不同类型失真的感知特性,得到的质量评价结果与人眼评价更为一致。
-
公开(公告)号:CN109285146B
公开(公告)日:2021-12-10
申请号:CN201811001682.2
申请日:2018-08-30
Applicant: 南京邮电大学
IPC: G06T7/00
Abstract: 本发明公开了一种基于恰可觉察失真的全参考图像质量评价方法,其特征在于,读入参考图像与失真图像,计算参考图像各像素的恰可觉察失真JND;基于JND对失真图像做像素级误差隐藏处理;计算参考图像与JND误差隐藏处理后失真图像之间的差异图像;对差异图像以4×4像素块为单位计算边缘点所占比率,根据比率与阈值的关系将差异图像分为平滑4×4块区域与结构化4×4块区域;对平滑区域以4×4块为单位计算PSNR并做归一化处理;对结构化区域以4×4块为单位计算结构相似度;融合平滑区域归一化的PSNR和结构化区域的相似度得到失真图像的最终质量评分。优点:更有效地表达了误差特性,提高了失真图像质量评价的准确度。
-
公开(公告)号:CN110287802A
公开(公告)日:2019-09-27
申请号:CN201910456761.0
申请日:2019-05-29
Applicant: 南京邮电大学
Abstract: 本发明公开了图像处理中的人眼凝视点预测技术领域的一种基于优化图像前景和背景种子的人眼凝视点预测方法,旨在解决现有技术中前景种子或背景种子容易被误分类且对比度与相关性利用不合理的技术问题,本发明所述方法包括以下步骤:对输入图像进行超像素分割;对超像素块,计算空间位置加权的颜色对比度,得到以超像素块为单位的初步显著图;构建7维特征,并计算各类的显著度均值;进行流形排序得到基于优化前景的显著图和基于优化背景的显著图;进行非线性融合,并通过阈值化得到人眼凝视点位置。本发明利用优选的前景和背景种子得到显著图,并通过非线性融合得到最终显著图和人眼凝视点位置,得到的结果更加准确。
-
-
-
-
-
-
-
-
-