-
公开(公告)号:CN117523511A
公开(公告)日:2024-02-06
申请号:CN202311397661.8
申请日:2023-10-25
Applicant: 南京邮电大学
IPC: G06V20/56 , G06V10/762 , G06V10/774 , G06V10/82 , G06N3/045 , G06N3/088
Abstract: 本发明提供一种基于混合注意力机制和关联像素的轨道线检测方法及系统,所述方法包括如下步骤:从轨道线数据库中选取混合场景的轨道图像和轨道线标注,并将其转化为二进制掩码,将轨道图像与二进制掩码进行配对,再按照相应比例划分为训练集和测试集;构建基于混合注意力机制和关联像素的轨道线检测网络模型;将按比例分好的训练集输入到深度神经网络中进行训练;将配对的彩色图像和二进制掩码输入到轨道线检测网络模型中,获得每个像素点的周围像素点特征信息,实现对水平关联像素域和垂直关联像素域的预测。本发明通过混合注意力机制和关联像素的结合,有效提取轨道线独特特征,提高网络模型检测的准确率,保证应用的准确性。
-
公开(公告)号:CN117372697A
公开(公告)日:2024-01-09
申请号:CN202311365676.6
申请日:2023-10-20
Applicant: 南京邮电大学
Abstract: 本发明提出了一种针对单模态稀疏轨道场景的点云分割方法和系统,该方法包括以下步骤:在室外轨道场景中进行数据集的采集;构建基于单模态的点云分割神经网络模型RPSN,RPSN网络包括单模态本地信息提取模块ULIA、自适应上采样模块AFU以及专注多尺度特征融合AMFF;将采集到的点云数据集输入ULIA;将下采样得到的点输入AFU,将经过前述步骤得到的逐层特征点云进行保留;最后构建基于衰减系数的特征保留模型AMFF,融合不同特征维度的点云信息,并输出该点云的具体分割类别。本发明的方法和系统提高了轨道场景点云分割的识别率和重叠度,为安全、高效的列车自动驾驶运行提供了有效的点云分割解决方案。
-
公开(公告)号:CN116189048A
公开(公告)日:2023-05-30
申请号:CN202310026714.9
申请日:2023-01-09
Applicant: 南京邮电大学
Abstract: 本发明提出了一种基于深度神经网络和自注意力机制的非接触心率检测方法和系统,该方法包括以下步骤:从远程生理测量的视频数据库中选取多个视频,通过使用人脸关键点检测,对每帧图像进行裁剪和人脸对齐操作,将裁剪过后的视频按相应的比例划分为训练集和测试集;构建结合自注意力机制的端到端可训练的深度神经网络模型;将前述步骤中划分好的训练集送入到深度神经网络中进行训练;以及在利用视频进行非接触心率测量的时,将经过前述步骤裁剪得到的视频序列送入网络模型中,以时序信号预测的方式得到该视频对应的血液容积脉搏波的信号值。本发明的方法和系统提高了非接触测量心率的准确性。
-
公开(公告)号:CN115880660A
公开(公告)日:2023-03-31
申请号:CN202211684804.9
申请日:2022-12-27
Applicant: 南京邮电大学
IPC: G06V20/56 , G06V20/70 , G06V10/774 , G06V10/764 , G06V10/82 , G06N3/0464 , G06N3/08 , G06V20/58
Abstract: 本发明提出了一种基于结构表征和全局注意力机制的轨道线检测方法和系统,该方法包括以下步骤:从轨道线数据库中选取多种场景的轨道线RGB图像和轨道线标注,并转化为标签图像,将标签图像与RGB图像进行配对后按照相应的比例划分为训练集和测试集;构建基于结构表征和全局注意力机制的端到端可训练的深度神经网络模型;将划分好的训练集输入到深度神经网络中进行训练;将配对的RGB图像和标签图像输入到深度神经网络模型中,获得对应于每个配对图像在若干行方向的轨道线预测网格位置。本发明通过结构表征和全局注意力机制的结合,有效提取轨道线关键特征,提高网络模型检测的准确率和运行速率,保证应用的实时性。
-
公开(公告)号:CN114333002A
公开(公告)日:2022-04-12
申请号:CN202111610586.X
申请日:2021-12-27
Applicant: 南京邮电大学
Abstract: 本发明是一种基于图深度学习和人脸三维重建的微表情识别方法,包括如下步骤:构建图特征学习模块,进行图特征分析获得一维特征向量;构建光流特征学习模块,通过光流特征提取获得一维特征向量;构建三维细节重建模块,得到一维特征向量;构建多流OGC‑FL网络模型结构,通过多流融合得到微表情识别分类结果。与单一策略相比,本发明多策略生成光流特征可以筛选出对微表情识别任务最为有利的生成策略;本发明的多流OGC‑FL网络模型结构,找到了人脸关键点信息和密集图像信息在识别微表情上的一致性,关键点稀疏空间信息可以通过GFL判断微表情大致的状态,而密集图像信息则凸显了面部细微的肌肉运动,为MER提取更加细节的信息。
-
公开(公告)号:CN110084141B
公开(公告)日:2021-02-09
申请号:CN201910274944.0
申请日:2019-04-08
Applicant: 南京邮电大学
Abstract: 本发明提出了一种基于私有信息的跨领域场景识别方法,包括如下步骤:获取彩色场景图像和对应的深度场景图像;构建跨领域多通道场景识别模型;将彩色场景图像和深度场景图像同时输入到跨领域多通道场景识别模型中,通过相应的卷积层,池化层,全连接层后生成相应的共享信息特征和私有信息特征;提高共享信息特征和私有信息特征的相关性,融合两类特征,通过归一化层输出场景图像的结果;使用时,将待识别的同类彩色场景图像输入到已训练完成的跨领域多通道场景识别模型中,得到识别结果。本方法利用深度场景图像中的深度信息作为训练场景识别模型时的私有信息,补充彩色场景图像所缺失的特征信息,最终提高了单领域场景识别方法的识别率和鲁棒性。
-
公开(公告)号:CN107316015B
公开(公告)日:2020-06-30
申请号:CN201710463130.2
申请日:2017-06-19
Applicant: 南京邮电大学
Abstract: 本发明公开了一种基于深度时空特征的高精度面部表情识别方法,该方法首先是设计了一种端到端可训练的多通道深度神经网络模型,该模型在低层利用多个并联的深度神经网络分别提取人脸表情图像的深度时空特征,然后在高层使用全连接层对多通道深度时空特征数据进行融合,最高层采用softmax层进行识别得到表情分类。该模型将图像特征提取和特征融合整合为一个可以进行全局训练的网络,加深了网络规模,提高了识别性能。第二个创新点是本发明使用平均脸来替代中性脸,这种做法解决了测试时表情图像缺少对应的中性脸图像的问题,使得本发明可以满足实际场合的应用。本发明在表情识别领域提供了一种新的思路,具有很高的实用价值和发展前景。
-
公开(公告)号:CN108446609A
公开(公告)日:2018-08-24
申请号:CN201810173858.6
申请日:2018-03-02
Applicant: 南京邮电大学
Abstract: 本发明揭示了一种基于生成对抗网络的多角度面部表情识别方法,该方法包括以下步骤:S1步骤:通过构建多角度人脸生成对抗网络来学习由侧脸图像生成正脸图像的变换关系;S2步骤:使用正脸表情图像训练用于判别正脸表情类别的深度神经网络;S3步骤:将多角度人脸生成对抗网络的低层部分与正脸表情判别网络的高层相连接,形成一个判别侧脸表情类别的深度神经网络;S4步骤:将一个侧脸表情图像T输入到深度神经网络,得到对该图像中面部表情的识别结果。本方法在两个标准人脸表情图像数据库上进行了大量测试,结果显示该方法实现了在缺乏侧脸表情图像训练数据时对多角度侧脸图像的面部表情识别功能。
-
公开(公告)号:CN106778584A
公开(公告)日:2017-05-31
申请号:CN201611120293.2
申请日:2016-12-08
Applicant: 南京邮电大学
CPC classification number: G06K9/00248 , G06K9/00268 , G06K9/32 , G06K9/42 , G06K9/6256 , G06K2009/00322
Abstract: 本发明公开了一种基于深层特征与浅层特征融合的人脸年龄估计方法,包括:对人脸样本数据集中的每张人脸样本图像进行预处理;对构建的初始卷积神经网络训练,选取一个用于人脸识别的卷积神经网络;利用具备年龄标签值的人脸数据集对所选取的卷积神经网络进行微调处理,获得多个用于年龄估计的卷积神经网络;提取得到人脸图像所对应多层次的年龄特征,并将其作为深层特征输出;提取获得每个人脸图像的浅层特征HOG特征和LBP特征;构建深度置信网络将深层特征和浅层特征融合;根据深度置信网络中融合后的特征进行人脸图像的年龄回归估计,获得和输出年龄估计结果。本发明提高了年龄估计的准确度,具备高精度的人脸图像年龄识估计能力。
-
公开(公告)号:CN105184229A
公开(公告)日:2015-12-23
申请号:CN201510500051.5
申请日:2015-08-14
Applicant: 南京邮电大学
CPC classification number: G06K9/00013 , G06K9/621 , H04N7/18
Abstract: 本发明提出了一种动态场景下基于在线学习的实时行人检测方法,属于视频图像处理技术领域。首先利用已有的基于聚合通道特征ACF特征提取,标注样本训练Online Adaboost分类器,并对获取的视频序列进行目标检测,检测到行人后,以当前帧检测结果为起始,对行人进行轨迹分析,通过轨迹信息判断检测结果,从而获取在线学习的样本。接着,利用Online Adaboost算法学习在线获得的正负样本,更新分类器,最终实现了性能优秀的实时行人检测系统。本发明的行人检测方法能够在运动平台下,利用“快速特征金字塔”的方法,使得算法满足实时计算的条件,并采用了在线更新分类器的方案;能够实现自学习,具有实时、高精度和很高的实用价值。
-
-
-
-
-
-
-
-
-