-
公开(公告)号:CN119741379A
公开(公告)日:2025-04-01
申请号:CN202411773419.0
申请日:2024-12-04
Applicant: 南京工业大学
IPC: G06T7/77 , G06V10/82 , G06V10/762 , G06N3/045 , G06N3/09 , G06N3/0985 , G06N3/092
Abstract: 本发明公开了一种优化机械臂6D抓取位姿的方法,包括:在Pybullet仿真环境下添加机械臂和深度相机的模型,从深度相机获取待抓取物体的点云信息,利用K‑means聚类方法将点云分成两类;沿着分类后的点云构建包围长方体,并根据这些长方体构建合适的模拟抓取位姿;根据筛选后的模拟抓取位姿从物体抓取数据集中选择优化后的专家抓取位姿,构建抓取启发式监督学习目标,并结合模仿学习和深度强化学习方法进行学习和训练。本发明利用物体表面结构特征构建更适合抓取的模拟抓取点,并从物体抓取数据集中选择距离模拟抓取点最近的专家抓取位姿进行抓取训练,通过对启发式目标进行优化最终实现机械臂对抓取位姿的优化。
-
公开(公告)号:CN118930843A
公开(公告)日:2024-11-12
申请号:CN202310538146.0
申请日:2023-05-12
Applicant: 中国石油化工股份有限公司 , 中石化(上海)石油化工研究院有限公司 , 南京工业大学
IPC: C08G69/26
Abstract: 本发明公开了一种高分子量聚草酰胺树脂的制备方法及得到的高分子量聚草酰胺树脂,所述制备方法包括:(1)二胺化合物与草酸和/或草酸二酯在喹啉类溶剂和金属化合物存在下通过逐渐升温进行预聚反应,经过滤得到聚草酰胺预聚物;(2)所述聚草酰胺预聚物进行固相缩聚反应,得到高分子量聚草酰胺树脂。利用本发明所述制备方法可以得到高分子量聚草酰胺,其特性黏度大于2dL/g,优选为2.1~3dL/g,更优选为2.3‑2.5dL/g。
-
公开(公告)号:CN118410387A
公开(公告)日:2024-07-30
申请号:CN202410667871.2
申请日:2024-05-28
Applicant: 南京工业大学
IPC: G06F18/24 , G10L25/63 , G06F18/25 , G06V40/16 , G06V10/764 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/0499 , G06N3/08
Abstract: 本发明提供一种基于互信息的多模态情感识别方法及系统,方法包括获取视频数据和音频数据;根据所述视频数据和音频数据以及已经训练好的多模态情感识别模型,获得情感分类结果;其中,在所述多模态情感识别模型中,定义总体损失函数,基于得到的总体损失,训练多模态情感识别模型;所述总体损失函数由单模态特有信息学习损失函数、模态间的共同信息学习损失函数、多模态融合特征最小充分表示损失函数、情感识别分类损失函数组成。本发明利用互信息剔除冗余信息、提取相关信息,并挖掘不同模态之间的互补性,提高了多模态情感识别精度。
-
公开(公告)号:CN116403151A
公开(公告)日:2023-07-07
申请号:CN202211642729.X
申请日:2022-12-20
Applicant: 南京工业大学
IPC: G06V20/52 , G06V10/82 , G06N3/04 , G06N3/084 , G06V10/762
Abstract: 本发明公开了一种基于自适应深度神经网络的地铁人流密度估计方法。该方法包括步骤:数据处理,自适应K‑means聚类确定锚框数量及锚框长宽,不同尺度的特征提取,根据自适应K‑means聚类结果自动确定特征融合网络不同尺度的特征图,利用自适应融合网络ASFF融合不同尺度特征之间的不一致性,对不同尺度的特征图进行预测并计算损失,行人头部检测模型网络训练,以及实时的人流密度估计。相比现有技术,本发明在检测速度、检测精度上都有大幅度的提升。
-
公开(公告)号:CN111325166B
公开(公告)日:2023-07-07
申请号:CN202010119569.5
申请日:2020-02-26
Applicant: 南京工业大学
IPC: G06V40/20 , G06V10/774 , G06V10/764 , G06V10/20 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明涉及一种基于投影重构和多输入多输出神经网络(MIMO‑CNN)的坐姿识别方法,包括:获取人体上半身深度图像及人体前景轮廓图;预处理;对坐姿轮廓的深度信息进行投影,重构得到三视角深度图;设计用于坐姿识别的MIMO‑CNN网络并学习模型参数;坐姿识别;模型自学习。优点:预处理后深度图像和人体轮廓图进行结合,排除周围背景对坐姿识别的干扰。使用投影重构方法得到三视角深度图,使得坐姿信息更加丰富。所设计的MIMO‑CNN结构,特别适用于投影重构特征信息同时融入了注意力机制,能更好的关注不同坐姿的热点区域,从而提升识别精度,同时采用模型自学习,较好地平衡了实时性和准确性需求,对视角变化和复杂环境背景,具有较强的抗干扰能力。
-
公开(公告)号:CN113011322A
公开(公告)日:2021-06-22
申请号:CN202110286753.3
申请日:2021-03-17
Applicant: 南京工业大学 , 贵州安防工程技术研究中心有限公司
Abstract: 本发明公开了一种监控视频特定异常行为的检测模型训练方法及检测方法,属于视频处理技术领域。在训练模型时,包括:将数据集中每个训练视频均分成数量相等的视频片段,构成正例包和负例包;将视频片段输入预训练好的特征提取网络提取视频特征;将所提取的视频特征输入串联的至少一个全连接层,得到视频片段特征;利用所得到的视频片段特征构造无向图,将无向图输入串联的至少一个图卷积神经网络层得到异常得分;根据异常得分,计算正负样本之间的排序损失,并更新权重,完成至少一个全连接层和至少一个图卷积神经网路层的训练。检测时,利用所训练出的模型进行检测。本发明能够对视频监控中特定异常行为进行较好的检测,并具有较快的检测速度。
-
公开(公告)号:CN106027978A
公开(公告)日:2016-10-12
申请号:CN201610447391.0
申请日:2016-06-21
Applicant: 南京工业大学
CPC classification number: H04N7/181 , G06K9/00302
Abstract: 本发明公开了一种智能家居养老的视频监控异常行为系统及方法,属于模式识别、计算机视觉技术领域。本发明的监控系统包括:双镜头监控摄像头、视频处理节点以及通讯中心,该系统通过双镜头监控摄像头实时监控室内活动情况;通过视频处理节点识别处理异常行为,并依据人脸表情作为辅助识别,检测是否出现异常行为活动;然后由通讯中心给用户发送异常行为警告信息。本发明可以实时监控人体活动状态,在出现异常情况时发出警报,具有应用范围广、安全性高、识别稳定可靠等优点。
-
公开(公告)号:CN103289681A
公开(公告)日:2013-09-11
申请号:CN201310232554.X
申请日:2013-06-09
Applicant: 南京工业大学
IPC: C09K11/06 , C07D493/10 , G01N21/64
Abstract: 本发明涉及谷胱甘肽荧光探针及其制备方法和用途,探针结构如式(1)所示;其制备方法为:将2,4-二硝基氟苯、荧光素和碳酸钾溶解于无水DMF中,反应后即生成谷胱甘肽荧光探针;其用途为用于非诊断性质的谷胱甘肽含量检测。本发明荧光探针仅与谷胱甘肽发生荧光反应,对其它氨基酸均无反应,具有很好的选择性和特异性;该探针制备工艺简单易行,易于规模化生产。
-
公开(公告)号:CN116958683A
公开(公告)日:2023-10-27
申请号:CN202310927881.0
申请日:2023-07-26
Applicant: 南京工业大学
IPC: G06V10/764 , G06V10/80 , G06V10/774 , G06V10/82 , G06N3/0464
Abstract: 本发明提供一种基于低秩多模态融合网络的MRI数据分类方法,首先,获取原始sMRI和fMRI的数据,分别对原始sMRI和fMRI的数据进行预处理,其次,基于低秩多模态融合网络分别从sMRI和fMRI两种不同模态的数据中提取特征向量,并采用低秩张量对提取后的特征向量进行融合,将融合后的特征输入支持向量机进行分类,基于总体损失函数采用端到端的方式训练低秩多模态融合网络,最后将测试集输入到训练好的低秩多模态融合网络中,得到测试样本的输出类别;本发明提供的基于低秩多模态融合网络的MRI数据分类方法,减小了不同模态间的异构性,增强了多模态融合的效果,提高了多模态分类模型的精度。
-
公开(公告)号:CN116852353A
公开(公告)日:2023-10-10
申请号:CN202310744751.3
申请日:2023-06-21
Applicant: 南京工业大学
IPC: B25J9/16
Abstract: 本发明公开了一种基于深度强化学习的密集场景机械臂抓取多目标物体的方法,包括在CoppeliaSim仿真软件中添加机械臂和RGB‑D相机搭建与现实环境相似的场景,将相机捕获到的图像数据利用正交变换和旋转生成不同角度的高度图,接着把多张高度图输入由特征提取模块DenseNet121以及两个并行的推动网络和抓取网络组成的全卷积神经网络并输出像素级Q值图,利用掩码函数筛选出有意义的像素点并获取t时刻推动作最大Q值#imgabs0#和抓动作最大Q值#imgabs1#,根据当前状态下最大Q值选择动作,其中,推动的奖励值rp由推动前后场景中所有物体的平均相对距离的差值是否大于阈值决定。在真实场景的抓取中,将仿真端训练好的推抓协同策略网络应用到实物平台,机械臂在真实环境下根据动作选择规则进行决策完成抓取任务。所述的方法可以让机械臂专注于有效的抓取和推动来促进模型进行高效率的学习,并且可以在工作空间内评估每个候选推动作对物体密集程度的影响,为抓取提供了足够的空间,提高了抓取的成功率。
-
-
-
-
-
-
-
-
-