-
公开(公告)号:CN113516853A
公开(公告)日:2021-10-19
申请号:CN202110703863.5
申请日:2021-06-24
Applicant: 南京邮电大学
Abstract: 本发明公开了一种针对复杂监控场景的多车道车流量检测方法,步骤为:步骤1,取得实时监控视频流,提取运动前景图像;步骤2,获取大致行车区域,进行膨胀处理,得到道路区域;步骤3,提取道路区域的光流矢量,保留光流矢量角度信息并通过角度信息对其聚类,得到不同朝向的车道分割结果;步骤4,跟踪图像中的车辆,获得各车辆目标的边界框以及轨迹信息;步骤5,利用车辆分布密度估计网络得到车辆分布密度信息;步骤6,基于分布密度信息获得实际车辆数量;步骤7,划定虚拟检测线,并进行车辆计数,得到车流量统计结果。本发明结合多目标跟踪和车辆分布密度热图对场景中的车流量进行检测,提升了复杂拥堵场景中车辆检测精度。
-
公开(公告)号:CN110989638A
公开(公告)日:2020-04-10
申请号:CN201911239047.2
申请日:2019-12-06
Applicant: 南京邮电大学
Abstract: 一种基于自主航行技术的水下建筑物缺陷检测方法,包括如下步骤,步骤S1、基于给定水域的二维地图信息,通过全覆盖路径规划遍历算法对待测水域进行全覆盖路径规划;步骤S2、通过定深控制系统、姿态控制系统、运动控制系统和短基线水声定位系统实现ROV在三维水下空间自主航行;步骤S3、通过超声波成像和水下摄像系统对水下建筑物进行缺陷检测与识别确定。该方法将自主航行技术与ROV结合,减轻远程手动操控的操控负担,同时,结合超声波成像与水下摄像技术,改善采集图像的清晰度,提高缺陷检测的准确度。
-
公开(公告)号:CN110433467A
公开(公告)日:2019-11-12
申请号:CN201910744905.2
申请日:2019-08-13
Applicant: 南京邮电大学
Abstract: 本发明公开了一种基于双目视觉和蚁群算法的捡乒乓球机器人运行方法及设备,方法包括:获取双目摄像机拍摄的RGB图像,从RGB图像中检测出乒乓球并获得各乒乓球的坐标位置;获取双目摄像机的深度数据,得到各乒乓球距离摄像机的距离;计算得到在全局坐标系下乒乓球的坐标点集;对坐标点集使用蚁群算法进行最短遍历路径规划,得到初步的捡球路径;从初步的捡球路径去除多次经过的乒乓球,得到没有冗余路线的路径。本发明使用双目摄像机同时实现了乒乓球的检测和定位,方便高效,同时保证了精度,使得捡球过程更加智能化;对蚁群算法规划出的路径进行冗余路线优化,进一步减少了机器人的行走路径,节约了时间。
-
公开(公告)号:CN107609464B
公开(公告)日:2019-10-29
申请号:CN201710605661.0
申请日:2017-07-24
Applicant: 南京邮电大学
Abstract: 本发明公开了一种实时高精度人脸快速检测方法,属于图像处理目标检测技术领域。基于Boosting算法和卷积神经网络相结合,利用了卷积神经网络能够在滤除环境噪声的同时很好的提取人脸特征的能力,使得可以快速清除图像中的噪声区域保留图像中有用信息部分,大大加快了人脸检测算法的速度,同时融合Boosing算法和设计的特征算法构建的高精度的分类器,对卷积神经网络得到的特征图进行处理,可以快速且准确的获取图像中人脸的具体位置。本发明提供了一种新型,鲁棒,高精度的人脸快速检测方法,在人脸检测领域提供了一种全新的思路,具有非常高的实用价值和发展前景。
-
公开(公告)号:CN110188656A
公开(公告)日:2019-08-30
申请号:CN201910445298.X
申请日:2019-05-27
Applicant: 南京邮电大学
Abstract: 本发明公开了一种多角度人脸表情图像的生成与识别,将人脸局部关键特征与全局关键特征融合,并将对抗生成一致性网络CTGAN和卷积神经网络融合,形成了判别侧脸表情类别的深度神经网络,将四通道的侧脸图片送到生成器进行训练,而不是传统中将随机变量作为输入,从而最大化的保存了侧脸图片的特征信息,可以更有效的建立从侧脸到正脸图片的映射关系,提升整体识别准确率;将多种特征融合并使用卷积神经网络CNN对提取到的特征进行分类,能够极大的提升多角度人脸表情识别的准确率和鲁棒性。
-
公开(公告)号:CN110084141A
公开(公告)日:2019-08-02
申请号:CN201910274944.0
申请日:2019-04-08
Applicant: 南京邮电大学
Abstract: 本发明提出了一种基于私有信息的跨领域场景识别方法,包括如下步骤:获取彩色场景图像和对应的深度场景图像;构建跨领域多通道场景识别模型;将彩色场景图像和深度场景图像同时输入到跨领域多通道场景识别模型中,通过相应的卷积层,池化层,全连接层后生成相应的共享信息特征和私有信息特征;提高共享信息特征和私有信息特征的相关性,融合两类特征,通过归一化层输出场景图像的结果;使用时,将待识别的同类彩色场景图像输入到已训练完成的跨领域多通道场景识别模型中,得到识别结果。本方法利用深度场景图像中的深度信息作为训练场景识别模型时的私有信息,补充彩色场景图像所缺失的特征信息,最终提高了单领域场景识别方法的识别率和鲁棒性。
-
公开(公告)号:CN110059598A
公开(公告)日:2019-07-26
申请号:CN201910274983.0
申请日:2019-04-08
Applicant: 南京邮电大学
Abstract: 本发明提出了一种基于姿态关节点的长时程快慢网络融合的行为识别方法,包括如下步骤:利用图卷积网络自动捕捉空间和时序内关节点结构特征和轨迹特征的模式;通过特征拼接网络模型生成每个视频片段的整体时空特征,并按片段顺序串接形成视频的整体时空特征,然后在卷积网络的高层融合输入视频中提取的RGB特征和姿态关节点特征;将两种特征通过支持向量机分类器,经过加权融合的方式输出该视频行为的分类结果。本发明通过提取姿态关节点特征,大大减少了数据量,去除了冗余信息。同时提取长时程多帧图像序列中的时空特征来进行特征补偿,提高了视频复杂行为的识别率和鲁棒性。
-
公开(公告)号:CN109919814A
公开(公告)日:2019-06-21
申请号:CN201910179821.9
申请日:2019-03-11
Applicant: 南京邮电大学
Abstract: 本发明提出了一种基于GIS和人脸识别技术的课堂点名方法,包括以下步骤:学生和教师在终端服务器中进行注册;教师打开教师客户端进行点名,学生打开学生客户端,终端服务器校验学生客户端定位是否位于GIS模块所规定的上课区域;认证成功后,进行脸部验证;验证成功后,终端服务器实时汇总校验成功的学生信息,并通过身份认证信息形成最终出勤表。该方法易于实现,且简单高效,解决了课堂带签、代课等问题。
-
公开(公告)号:CN106650798B
公开(公告)日:2019-06-21
申请号:CN201611120285.8
申请日:2016-12-08
Applicant: 南京邮电大学
Abstract: 本发明公开了一种结合深度学习与稀疏表示的室内场景识别方法,包括步骤:从室内场景库中随机挑选若干张室内场景图像作为训练样本,将剩余作为测试样本;利Fast‑RCNN算法对训练和测试样本进行物体类别判别和检测,以构建得到每张室内场景图像的底层特征;利用词袋模型将每张室内场景图像的底层特征和空间特征结合,构建得到中层特征;对训练样本中的中层特征进行糅合构建得到稀疏字典;利用稀疏字典对测试样本进行稀疏表示,及根据求解出的稀疏解与所输入的测试样本计算得到残差,并根据残差的大小判断测试样本所属的物体类别;将判断得到所属的物体类别输出。本发明能准确识别室内场景,可有效提高室内场景识别的准确率和鲁棒性,具有很高的实用性能。
-
公开(公告)号:CN109389633A
公开(公告)日:2019-02-26
申请号:CN201811009501.0
申请日:2018-08-31
Applicant: 南京邮电大学
Abstract: 本发明公开了一种基于LSD-SLAM和激光雷达的深度信息估计方法,首先利用LSD-SLAM算法通过单目摄像头得到当前场景的点云数据,并将其导出为“.ply”文件;随后利用激光雷达得到周围场景的深度数据并进行截取,得到摄像头所能获取的相应范围内的深度数据;最后,将点云数据和激光雷达数据做相应位置的匹配,并记录所匹配的每个对应点的深度数据的差值,再根据此差值对整个点云数据进行更新,从而得到当前场景较为准确的深度信息。采用本发明可以在单目摄像头所获得的当前场景的深度信息的基础上,利用激光雷达的硬件优势,将两种深度信息进行匹配融合,最大程度地保证了当前场景的深度信息的准确性。
-
-
-
-
-
-
-
-
-