-
公开(公告)号:CN110852368A
公开(公告)日:2020-02-28
申请号:CN201911068737.6
申请日:2019-11-05
Applicant: 南京邮电大学
Abstract: 本发明公开了一种全局与局部特征嵌入及图文融合的情感分析方法与系统,该方法首先利用卷积神经网络提取图像的全局特征,同时利用迁移学习训练目标检测模型,对图像中携带情感的局部区域进行检测定位,提取局部区域特征并嵌入到全局特征共同训练图像情感分类模型,得到图像的情感极性概率。接着将文本表示为包含丰富语义信息的词向量,输入到可提取文本语义上下文特征的双向LSTM进行情感分类,得到文本的情感的极性概率。最后根据后期融合公式,得到图像及文本融合后的情感极性概率,进行图文情感分析。本发明能有效的关注图文的情感信息,并通过图像的全局与局部情感特征的提取以及文本信息的融合,提高图文情感分类的准确性和鲁棒性。
-
公开(公告)号:CN107341471B
公开(公告)日:2019-10-01
申请号:CN201710537393.3
申请日:2017-07-04
Applicant: 南京邮电大学
Abstract: 本发明公开了一种基于双层条件随机场的人体行为识别方法,属于计算机视觉的行为识别领域。首先,分别提取RGB‑D视频中行为动作主体的人体姿态和可能与其相互交互的物体信息特征,计算交互物体在RGB‑D视频分割后得到的各个小视频得分信息作为全局特征。然后,建模顶层条件随机场以捕捉人体行为间的高阶相关性,建模底层条件随机场以丰富人体行为内部的潜在结构,最终构建双层条件随机场的判别分类模型。接着,采用精确推理和结构化支持向量机分类器学习双层条件随机场的判别分类模型参数。最后,根据学习得到的模型参数和即得模型预测测试视频中人体行为类别。本发明在一定程度上提高了人体行为动作的识别准确度。
-
公开(公告)号:CN109815886A
公开(公告)日:2019-05-28
申请号:CN201910052953.5
申请日:2019-01-21
Applicant: 南京邮电大学
Abstract: 本发明公开了一种基于改进YOLOv3的行人和车辆检测方法及系统。本发明采用基于Darknet-33改进型YOLOv3网络作为主干网络提取特征;采用可传递的特征图尺度缩减方法,跨层融合并重用主干网络中的多尺度特征;然后采用尺度放大方法构建特征金字塔网络。训练阶段,对训练集使用K-means聚类方法以预测框和真实框的交并比作为相似度标准进行聚类选取先验框;然后依据损失函数做BBox回归和多标签分类。检测阶段,对所有检测框,根据置信度打分和IOU值采用非极大值抑制法去除冗余检测框,预测出最优的目标对象。本发明采用特征图尺度缩减融合的特征提取网络Darknet-33、特征图尺度放大迁移融合构造特征金字塔和聚类选取先验框,能提高行人和车辆检测的速度和精度。
-
公开(公告)号:CN109461188A
公开(公告)日:2019-03-12
申请号:CN201910088695.6
申请日:2019-01-30
Applicant: 南京邮电大学
IPC: G06T7/73
Abstract: 本发明公开了一种二维X射线头影测量图像解剖特征点自动定位方法,属于图像处理技术领域。首先计算X射线头影测量图像中每个解剖特征点的偏移距离图,将其和头影测量图像作为训练数据。其次,基于卷积神经网络模型构建自动编码生成对抗性网络,并将已有训练数据作为输入,训练该网络预测针对目标解剖特征点的偏移距离图。再次,当获得新的X射线头影测量图像时,将训练好的自动编码生成对抗性网络作用于新图像,以获得目标解剖特征点的偏移距离图。最后,使用回归投票方法从偏移距离图中求得目标解剖特征点坐标。本发明能自动、准确地获得二维X线头影测量图像中解剖特征点位置。
-
公开(公告)号:CN107292234A
公开(公告)日:2017-10-24
申请号:CN201710347401.8
申请日:2017-05-17
Applicant: 南京邮电大学
Abstract: 本发明公开了一种基于信息边缘和多模态特征的室内场景布局估计方法,针对图像用边缘检测提取直线段由此估计出图像消失点,从消失点出发做采样射线粗划分图像区域;用全卷积神经网络(FCNs)获取信息边缘图,选取图中能量较高区域并细采样产生布局候选项;基于积分几何提取图像的线段、几何上下文、深度、法向量特征;考虑布局候选项与区域级特征一元和二元的映射关系,设计布局估计的结构化回归模型,引入结构化学习算法,能量函数最小的即为室内场景布局估计。本发明逐步缩小候选项生成区域,并结合多种模态特征对布局候选项进行约束,提高了室内估计布局精度。
-
公开(公告)号:CN119691517A
公开(公告)日:2025-03-25
申请号:CN202411848184.7
申请日:2024-12-16
Applicant: 南京邮电大学
IPC: G06F18/24 , A61B5/18 , A61B5/00 , A61B5/346 , A61B5/319 , G06F18/213 , G06F17/18 , G06F17/14 , G06N3/048 , G06N3/08
Abstract: 本发明公开一种通过EEG信号识别疲劳状态的方法,包括步骤:采集EEG信号,并从中提取出多种特征值,用作构建样本;构建浅层神经网络,样本的各特征值历经该浅层神经网络的输入层、隐藏层及输出层的运算,由输出层输出预测结果;对预测结果作归一化处理,归一化处理结果即是否疲劳的判定结果。本发明提供的通过EEG信号识别疲劳状态的方法,综合考虑多个特征值,利用它们之间的相互作用和互补性,来构建更为全面和精细的疲劳评估模型。这样的模型不仅能够更准确地反映EEG信号中的疲劳特征,还能更好地适应不同个体之间的差异,从而提高疲劳监测的实用性和有效性。
-
公开(公告)号:CN119228802A
公开(公告)日:2024-12-31
申请号:CN202411754912.8
申请日:2024-12-03
Applicant: 南京邮电大学
IPC: G06T7/00 , G06V20/64 , G06V20/70 , G06V10/25 , G06V10/26 , G06V10/44 , G06V10/77 , G06V10/80 , G06V10/764 , G06V10/82 , G06N3/0464 , G06N3/0455 , G06N3/084 , G06N3/048
Abstract: 本申请公开了多生牙自动检测方法、装置、存储介质及电子设备。该方法包括:获取三维图像,将三维图像进行预处理得到多个图像块;将图像块输入到训练好的两阶段深度注意力网络中进行识别,得到三维图像中包含多生牙的概率值;其中,两阶段深度注意力网络包括定位子网络和分类子网络;将图像块输入到训练好的两阶段深度注意力网络中进行识别,包括:将图像块输入到定位子网络中得到矩形定位框,将矩形定位框输入到分类子网络中得到图像块中包含多生牙的概率值。本申请能够加快多生牙的检测速度,提升分类精度。
-
公开(公告)号:CN118918545A
公开(公告)日:2024-11-08
申请号:CN202411036278.4
申请日:2024-07-31
Applicant: 南京邮电大学
IPC: G06V20/54 , G06N3/0464 , G06N3/0495 , G06N3/082 , G06V10/44 , G06V10/80 , G06N3/047 , G06V10/774 , G06V10/82 , G06N3/048
Abstract: 本发明公开了一种基于改进YOLO模型的轻量化货车检测方法及系统,该方法包括收集各类货车不同拍摄角度图像构建数据集并标注;应用Ghost卷积于YOLOv5s主干网络;构建GhostC3模块用于YOLOv5s主干特征提取网络;利用目标尺度多样特性构建多尺度上下文特征聚焦金字塔模块MCFP;利用目标低分辨率特性构建多尺度自适应感受野增强模块SRFEM;最后自建货车数据集输入至所述改进后的网络,获得货车检测结果。本发明能够以高精度实时检测货车目标。
-
公开(公告)号:CN118736205A
公开(公告)日:2024-10-01
申请号:CN202411028539.8
申请日:2024-07-30
Applicant: 南京邮电大学
IPC: G06V10/25 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种基于改进YOLO模型的低分辨率小目标检测方法及系统,该方法包括收集低分辨率小目标图像并构建数据集;利用数据集图像低分辨率特性构建通道空间混合特征突出模块CSHM,将通道空间混合特征增强模块应用于YOLOv7tiny的主干网络和颈部网络连接处;进一步根据图像中小目标特性提出自适应交并比计算方法AIoU,构建隐式高效解耦头结构IEDH,将AIOU用作YOLOv7tiny中的交并比计算方法,并利用IEDH对其输出特征图进行解耦合;最后将所述低分辨率小目标图像输入至所述改进后的网络,获得低分辨率小目标检测结果;本发明能够以高精度实时检测低分辨率小目标。
-
公开(公告)号:CN117408908A
公开(公告)日:2024-01-16
申请号:CN202311725816.6
申请日:2023-12-15
Applicant: 南京邮电大学
Abstract: 本发明公开了一种基于深度神经网络的术前与术中CT图像自动融合方法,涉及计算机视觉预测技术领域,包括:采集脊柱微创术前和术后同一病人的三维C形臂CT图像,对图像的腰椎区域分别进行标注;根据标注的图像构建基于注意力机制的三维U型分割网络模型,利用模型从术前和术后CT图像中自动分割出腰椎区域;利用快速全局点云配准算法对术前和术后CT图像中自动分割出的腰椎区域进行配准,并获得术前CT图像和术后CT图像间的形变矩阵;通过形变矩阵将术前CT图像转换到术后CT图像的坐标空间;本发明实现源点云和目标点云的快速精确配对,能够应用于基于图像引导的脊柱微创手术系统,以提高手术前和手术后C形臂CT图像自动融合精度。
-
-
-
-
-
-
-
-
-