-
公开(公告)号:CN110084141A
公开(公告)日:2019-08-02
申请号:CN201910274944.0
申请日:2019-04-08
Applicant: 南京邮电大学
Abstract: 本发明提出了一种基于私有信息的跨领域场景识别方法,包括如下步骤:获取彩色场景图像和对应的深度场景图像;构建跨领域多通道场景识别模型;将彩色场景图像和深度场景图像同时输入到跨领域多通道场景识别模型中,通过相应的卷积层,池化层,全连接层后生成相应的共享信息特征和私有信息特征;提高共享信息特征和私有信息特征的相关性,融合两类特征,通过归一化层输出场景图像的结果;使用时,将待识别的同类彩色场景图像输入到已训练完成的跨领域多通道场景识别模型中,得到识别结果。本方法利用深度场景图像中的深度信息作为训练场景识别模型时的私有信息,补充彩色场景图像所缺失的特征信息,最终提高了单领域场景识别方法的识别率和鲁棒性。
-
公开(公告)号:CN110059598A
公开(公告)日:2019-07-26
申请号:CN201910274983.0
申请日:2019-04-08
Applicant: 南京邮电大学
Abstract: 本发明提出了一种基于姿态关节点的长时程快慢网络融合的行为识别方法,包括如下步骤:利用图卷积网络自动捕捉空间和时序内关节点结构特征和轨迹特征的模式;通过特征拼接网络模型生成每个视频片段的整体时空特征,并按片段顺序串接形成视频的整体时空特征,然后在卷积网络的高层融合输入视频中提取的RGB特征和姿态关节点特征;将两种特征通过支持向量机分类器,经过加权融合的方式输出该视频行为的分类结果。本发明通过提取姿态关节点特征,大大减少了数据量,去除了冗余信息。同时提取长时程多帧图像序列中的时空特征来进行特征补偿,提高了视频复杂行为的识别率和鲁棒性。
-
公开(公告)号:CN106650798B
公开(公告)日:2019-06-21
申请号:CN201611120285.8
申请日:2016-12-08
Applicant: 南京邮电大学
Abstract: 本发明公开了一种结合深度学习与稀疏表示的室内场景识别方法,包括步骤:从室内场景库中随机挑选若干张室内场景图像作为训练样本,将剩余作为测试样本;利Fast‑RCNN算法对训练和测试样本进行物体类别判别和检测,以构建得到每张室内场景图像的底层特征;利用词袋模型将每张室内场景图像的底层特征和空间特征结合,构建得到中层特征;对训练样本中的中层特征进行糅合构建得到稀疏字典;利用稀疏字典对测试样本进行稀疏表示,及根据求解出的稀疏解与所输入的测试样本计算得到残差,并根据残差的大小判断测试样本所属的物体类别;将判断得到所属的物体类别输出。本发明能准确识别室内场景,可有效提高室内场景识别的准确率和鲁棒性,具有很高的实用性能。
-
公开(公告)号:CN104008371B
公开(公告)日:2017-02-15
申请号:CN201410220523.7
申请日:2014-05-22
Applicant: 南京邮电大学
Abstract: 本发明提出了一种基于多摄像机的区域可疑目标跟踪与识别方法,解决小区域范围内单一可疑目标的准确识别与跟踪的问题。首先在多摄像机中的一个摄像机里确认要跟踪的目标,然后对该目标进行特征提取,同时判断出目标的位置和大小,然后将目标的特征信息进行更新。其他摄像机也同步运行,实时对目标进行检测,一旦接受到第一个摄像机发出的触发消息,则相应触发目标识别单元来识别要跟踪的目标,并将其更新,接着利用检测器和跟踪器完成对可疑目标的鲁棒跟踪,从而实现了多摄像机下的区域可疑目标跟踪与识别。所述方法的目标跟踪不仅在单摄像机情况下具有良好的鲁棒性,在多摄像机目标识别与跟踪时仍能保证较高的准确性,因此具有较好的应用前景。
-
公开(公告)号:CN103778432B
公开(公告)日:2017-02-01
申请号:CN201410007538.5
申请日:2014-01-08
Applicant: 南京邮电大学
IPC: G06K9/62
Abstract: 本发明提出了一种基于深信度网络的人车分类方法。所述方法将训练图像归一化为灰度图像,提取HOG算子,得到HOG特征直方图,将灰度图像拉直后与HOG特征直方图串联,训练DBN,构造基于DBN的人车分类网络;将待分类图像进行归一化和HOG特征提取后,输入基于DBN的人车分类网络中分类。本发明方法的深信度网络具有多个隐含层,拥有比浅层网络更加优异的特征表达能力;将原始图像和特征直方图相结合作为输入数据,在保留图像外观信息的基础上突出了局部梯度方向的统计信息;本发明对于光照、外观大幅变化的人车图像,仍可以获得优良的分类性能。
-
公开(公告)号:CN104780361B
公开(公告)日:2016-10-05
申请号:CN201510140343.2
申请日:2015-03-27
Applicant: 南京邮电大学
IPC: H04N17/00
Abstract: 本发明公开了一种城市视频监控系统的质量评价方法,首先分别求得城市视频监控系统中的每一个监控摄像头的视频质量客观评价分数、有效监控区域评价分数和目标有效性检测评价分数,然后,在其基础上对其进行加权求和,得到单个监控摄像头的评价分数,最后,根据摄像头安装位置的重要程度对其设置权重,对所有摄像头的评价分数加权求和,得到城市视频监控系统的评价分数。本发明使得城市视频监控系统质量的评价不受人为因素的干扰,提高了系统质量评价的有效性和准确性,为现代城市智能监控系统的建设、评价与维护提供了依据。
-
公开(公告)号:CN105513080A
公开(公告)日:2016-04-20
申请号:CN201510962050.2
申请日:2015-12-21
Applicant: 南京邮电大学
IPC: G06T7/00
CPC classification number: G06T2207/10048
Abstract: 本发明公开了一种红外图像中目标显著性评估方法,属于视频图像处理技术领域,该方法可以有效地对红外图像中目标进行显著性评估。本发明采用一种基于超像素的中心环绕特征用于度量图中各个区域的显著性。使用了多层多尺度超像素分割机制对输入红外图像进行多尺度超像素分割,求得多层多尺度的图像分割结果。对于各层分割结果,本发明只合并相邻两个超像素,并与单个超像素组成潜在目标集合。然后使用上述中心环绕特征对所有潜在目标进行度量,最后对得到的显著性分数进行排序。本发明可以快速有效地定位红外图像中的感兴趣目标,在准确性和计算速度上具有较大优势。
-
公开(公告)号:CN104301585A
公开(公告)日:2015-01-21
申请号:CN201410490143.5
申请日:2014-09-24
Applicant: 南京邮电大学
Abstract: 本发明提出了一种运动场景中特定种类目标实时检测方法,所述方法首先对获取的视频帧序列进行单帧的显著性检测,获得概率最大地包含疑似目标的显著性区域,然后利用离线训练的深度学习特定目标分类器对多个显著性区域进行目标分类判定,确定每个显著性区域的属性;发现关注的特定种类目标后,以当前帧显著性检测结果为起始,实现目标后续运动轨迹的跟踪和记录。本发明所述方法能够在摄像机承载平台运动的条件下,基于单帧图像快速确定少量疑似目标的显著性区域,减少了全图搜索的计算量,使得算法满足实时计算的条件;采用的深信度网络具有多个隐含层,拥有比浅层网络更加优异的特征表达能力,对于光照、外观大幅变化的目标图像,仍能获得优良的分类性能。
-
公开(公告)号:CN119624991A
公开(公告)日:2025-03-14
申请号:CN202411811477.8
申请日:2024-12-10
Applicant: 南京邮电大学
IPC: G06T7/11 , G06V10/40 , G06V20/70 , G06V10/82 , G06N3/045 , G06N3/0455 , G06N3/0464 , G06N3/0895 , G06N3/08
Abstract: 本发明提出了一种面向无标注CTA扫描的鲁棒颅内动脉瘤分割方法,该方法包括以下步骤:设计了一个包括伪监督学习、对比学习和置信学习三重学习框架,从具有不可靠标签的脑CTA扫描中学习稳健的颅内动脉瘤分割模型。大脑CTA扫描经过预处理以去除冗余信息,并生成初始输入的各种增强视图。将预处理后的CTA图像送入伪监督学习模块,采用一种增强的平均教师模型对标签不可靠的CTA扫描进行伪监督学习。在增强教师网络上附加了一个转换网络,用于体素级对比学习。本发明的方法和诊断系统提高颅内动脉瘤分割的准确性,可以有效的减少医生诊断的时间,提高效率。同时,降低因医生诊断水平不同或疲劳而造成的漏诊或误诊。
-
公开(公告)号:CN118675082A
公开(公告)日:2024-09-20
申请号:CN202410689175.1
申请日:2024-05-30
Applicant: 南京邮电大学
Abstract: 本发明公开了一种ASCII艺术视觉隐私保护和跌倒检测的实现方法及系统,涉及计算机视觉和模式识别技术领域,包括:接收原始跌倒行为数据集,利用文生视频技术对原始跌倒行为数据集进行补充,得到补充跌倒行为数据集,对补充跌倒行为数据集进行预处理,得到视频帧图像产生视觉隐私保护效果的视隐态视频数据;提取补充跌倒行为数据集内的图像特征,将图像特征输入至预先建立的支持向量回归模型内,输出得到图像隐私保护分数;对视频帧图像产生视觉隐私保护效果的视隐态视频数据内丢失的特征进行补充,得到处理后的视隐态视频数据,将处理后的视隐态视频数据输入至预先建立的基于YOLO+姿态估计模型内,输出得到跌倒行为检测结果。
-
-
-
-
-
-
-
-
-