-
公开(公告)号:CN110739070A
公开(公告)日:2020-01-31
申请号:CN201910918352.8
申请日:2019-09-26
Applicant: 南京工业大学
Abstract: 本发明涉及一种基于3D卷积神经网络的脑疾病诊断方法,包括:1)获取正常和疾病的MRI脑图像数据样本;2)样本预处理,包括脑组织提取以及样本标准化;3)设计用于脑疾病诊断的3D卷积神经网络;4)MRI脑图像作为3D卷积神经网络的输入,进行网络训练提取出特征建立分类诊断模型;5)待测人员MRI脑图像经过预处理后作为输入送到3D卷积神经网络诊断模型中,得到输出标签,判断是否患病。优点:1)使用3D卷积神经网络建立脑疾病诊断模型,从MRI脑图像中自动学习特征。构建多隐含层的深度学习模型由计算机自动获取精准、有效的特征,最终提高了诊断模型的精度和泛化能力。2)适用于阿尔兹海姆症、抑郁症、儿童多动症等多种不同类型脑疾病的诊断。
-
公开(公告)号:CN106203536A
公开(公告)日:2016-12-07
申请号:CN201610783743.X
申请日:2016-08-30
Applicant: 南京工业大学
CPC classification number: G06K9/6267 , G06K9/40 , G06K9/46 , G06K9/60
Abstract: 本发明公开了一种织物疵点的特征提取及检测方法,步骤1,利用摄像头采集一组织物的图像;步骤2,对采集的图像进行预处理;步骤3,基于小波变换提取图像特征向量;步骤4,基于模糊决策粗糙集对图像特征向量进行约简,获得约简集;步骤5,以约简集作为SVM分类器的输入量来训练疵点检测模型;步骤6,根据步骤1~步骤4的过程,获得待测织物的约简集,将待测织物的约简集作为输入量输入训练好的疵点检测模型,计算待测织物的识别结果。本发明即能降低数据维度,又能提取出对疵点检测有用的信息,提高疵点检测模型的识别精度和实时性。
-
公开(公告)号:CN118447554A
公开(公告)日:2024-08-06
申请号:CN202410573512.0
申请日:2024-05-10
Applicant: 南京工业大学
IPC: G06V40/16 , G06V20/40 , G06V10/44 , G06V10/764 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种基于梯度动态调节的多模态情感识别方法及装置,其方法包括获取待识别的多模态情感识别数据;将预处理后的多模态情感识别数据输入训练好的多模态情感识别模型,获取多模态情感识别结果;其中,多模态情感识别模型的训练过程包括:获取带真实标签的多模态情感识别数据作为训练样本;构建多模态情感识别模型,将预处理后的训练样本输入构建的多模态情感识别模型进行训练,基于梯度动态调节策略更新模型参数直至模型参数收敛或达到最大迭代次数;本发明提供的梯度动态调节策略在训练过程中动态调节不同模态参数的梯度,使得多模态的参数调节速度接近,确保其均衡优化,提高了多模态情感识别模型的准确率。
-
公开(公告)号:CN117011380A
公开(公告)日:2023-11-07
申请号:CN202310989945.X
申请日:2023-08-07
Applicant: 南京工业大学
IPC: G06T7/73 , G06T7/38 , G06T7/90 , G06V10/25 , G06V10/42 , G06V10/56 , G06V10/764 , G06V10/80 , G06V10/82 , G06N3/045 , G06N3/08
Abstract: 本发明公开了一种目标物体的6D位姿估计方法;首先使用改进的YoLov5m获得物体类别信息,并筛选获取包含目标物体的局部RGB‑D图像,再将局部RGB‑D图像经过PSPNet和PointNet预处理后输入PoseNet获得的初步估计位姿,最后通过PoseRefineNet迭代优化获取最终目标6D位姿,能够在室内复杂环境中获取目标物体类别信息且能提升目标6D位姿检测的稳定性与精度,同时优化了网络的复杂度与计算量,将改进的YoLov5m网络模型和DenseFusion算法结合,使用YoLov5m获取物体类别的同时得到包含目标物体的局部图像,这样使用局部图像与点云代替原本的整个图像信息输入DenseFusion算法进行物体6D位姿估计,不仅减少了网络的计算量和复杂度,并且提供了更集中的目标物体信息,提高了位姿估计的准确性和稳定性。
-
公开(公告)号:CN116330283A
公开(公告)日:2023-06-27
申请号:CN202310301614.2
申请日:2023-03-24
Applicant: 南京工业大学
IPC: B25J9/16
Abstract: 本发明公开了一种密集场景下机械臂抓取目标物体的方法,包括:通过V‑rep动态仿真软件搭建同现实环境相似的场景;在仿真环境中搭建编码器‑解码器结构的推动与抓取协同策略网络,整体结构由密集卷积神经网络DenseNet121以及两个并行的全卷积神经网络组成;搭建真实的密集堆叠复杂场景,将仿真端训练好的推动与抓取协同网络移植到实物平台,机械臂在真实环境下进行动作决策抓取目标物体。本方法采用深度强化学习的方式不断在工作环境中尝试动作获取奖励值来训练推动与抓取协同策略网络,根据目标物体的遮挡状态由策略网络自主决策最优动作,形成有效动作序列完成目标抓取任务,提高了在密集场景下目标物体的抓取成功率。
-
公开(公告)号:CN113361370B
公开(公告)日:2023-06-23
申请号:CN202110611720.1
申请日:2021-06-02
Applicant: 南京工业大学
IPC: G06V40/20 , G06V10/764 , G06V10/774
Abstract: 本发明公开了一种基于深度学习的异常行为检测方法,具体包括以下步骤:S1、图像获取:利用摄像机获取实际场景RGB图像,S2、行人检测:利用目标检测算法YOLOv5检测当前视频帧中行人,输出检测框的位置信息、置信度与类别,对检测结果进行筛选,去除冗余框,本发明涉及人体行为识别技术领域。该基于深度学习的异常行为检测方法,采用计算机视觉的方式,增强在实际场景中的稳定性,通过摄像头获取的RGB图像,检测得到结果后,采用随机涂鸦进行数据增强来应对场景中的遮挡问题,平衡了准确度与实时性的的需求,对存在遮挡的实际环境,具有较强的抗干扰能力。
-
公开(公告)号:CN112233086A
公开(公告)日:2021-01-15
申请号:CN202011095774.9
申请日:2020-10-14
Applicant: 南京工业大学
Abstract: 本发明设计了一种基于脑区功能连接的fMRI数据分类识别方法及装置,包括:获取被试者fMRI数据;对所获取的fMRI数据进行预处理,得到大脑灰质图像;将大脑灰质图像分割成多个不同功能的脑区,并提取每个脑区的平均体素时间序列;基于模糊决策粗糙集从多个功能脑区中选择存在显著差异的部分脑区;基于选择出的部分脑区,计算不同脑区之间的皮尔森相关系数,并采用Fisher‑z变换对系数进行非线性处理,得到部分脑区的功能连接矩阵;对矩阵中的相关系数值进行稀疏化,保留阈值之上的相关系数值,并将矩阵展开成一维特征向量;将得到的一维特征向量作为输入送到训练好的SVM识别模型中,得到被试者的输出标签并判断被试者fMRI数据类别。
-
公开(公告)号:CN120003764A
公开(公告)日:2025-05-16
申请号:CN202510343330.9
申请日:2025-03-21
Applicant: 南京工业大学
Abstract: 本发明公开了一种无人机充电杆位置识别充电方法、系统及装置,该方法包括:获取无人机各起落架末端之间距离及停机坪底部阴影图像;对停机坪底部阴影图像进行预处理,获得二值化图像;提取二值化图像中每个轮廓的特征向量,并进行标准化处理,获得标准化后的轮廓特征数据;对标准化后的轮廓特征数据进行聚类分析,筛选出符合起落架末端之间距离的轮廓,得到这些轮廓对应的中心点坐标组合,根据中心点坐标组合判断无人机充电杆位置,以控制充电机械臂定位抓取无人机充电杆,构成充电回路。本发明实现了多维特征融合,提高复杂背景条件下的无人机充电杆位置识别精度。
-
公开(公告)号:CN118823440A
公开(公告)日:2024-10-22
申请号:CN202410804059.X
申请日:2024-06-20
Applicant: 南京工业大学
IPC: G06V10/764 , G06V10/44 , G06V10/80 , G06V10/82 , G06N3/045 , G06N3/0464 , G06N3/08
Abstract: 本发明提供一种多模态MRI图像分类识别方法。首先,获取带真实标签的脑部多模态MRI数据集作为训练样本;对获取的sMRI和fMRI数据预处理;构建多模态MRI数据分类识别模型;将预处理后的所述数据输入构建的多模态MRI数据分类识别模型进行训练;获取待识别的多模态MRI数据,对所述多模态数据进行预处理;将预处理后待识别的sMRI和fMRI数据输入训练好的多模态MRI分类识别模型,获取多模态MRI数据分类识别结果;本发明提出的一种多模态MRI图像分类识别方法,在减小sMRI和fMRI两种不同模态间分布差异的同时,可以减小不同模态收敛速度差异,有效地减轻了不同模态之间的异质性,充分利用了不同模态的互补性,得到了丰富的特征信息,提升了多模态MRI图像分类识别模型的性能。
-
公开(公告)号:CN118544353A
公开(公告)日:2024-08-27
申请号:CN202410772342.9
申请日:2024-06-14
Applicant: 南京工业大学
IPC: B25J9/16
Abstract: 本发明公开了一种基于深度强化学习的机械臂6D位姿抓取方法,包括:在仿真环境中搭建用于机械臂6D位姿抓取的实验平台;在仿真环境中构建6D位姿抓取网络;初始化经验回放池为空、随机初始化策略网络和价值网络的参数以及目标策略网络和目标价值网络的参数;收集经验样本,并存入经验回放池;当经验样本达到阈值,开始在仿真环境中训练价值网络和策略网络;搭建机械臂实物平台,将仿真环境下训练好的6D位姿抓取网络移植到实物平台,机械臂在真实环境下进行动作决策实现物体抓取。本方法提出的基于深度强化学习的机械臂6D位姿抓取方法,基于在线专家演示的生成增强数据样本,极大丰富了专家经验样本,提高了经验池中高质量样本的比例,采用基于深度神经网络的奖励值评估方法精细评估机械臂的抓取位姿优劣,有效提高了机械臂在非结构化环境中抓取任意位姿物体的成功率。
-
-
-
-
-
-
-
-
-