-
公开(公告)号:CN119741379A
公开(公告)日:2025-04-01
申请号:CN202411773419.0
申请日:2024-12-04
Applicant: 南京工业大学
IPC: G06T7/77 , G06V10/82 , G06V10/762 , G06N3/045 , G06N3/09 , G06N3/0985 , G06N3/092
Abstract: 本发明公开了一种优化机械臂6D抓取位姿的方法,包括:在Pybullet仿真环境下添加机械臂和深度相机的模型,从深度相机获取待抓取物体的点云信息,利用K‑means聚类方法将点云分成两类;沿着分类后的点云构建包围长方体,并根据这些长方体构建合适的模拟抓取位姿;根据筛选后的模拟抓取位姿从物体抓取数据集中选择优化后的专家抓取位姿,构建抓取启发式监督学习目标,并结合模仿学习和深度强化学习方法进行学习和训练。本发明利用物体表面结构特征构建更适合抓取的模拟抓取点,并从物体抓取数据集中选择距离模拟抓取点最近的专家抓取位姿进行抓取训练,通过对启发式目标进行优化最终实现机械臂对抓取位姿的优化。
-
公开(公告)号:CN118410387A
公开(公告)日:2024-07-30
申请号:CN202410667871.2
申请日:2024-05-28
Applicant: 南京工业大学
IPC: G06F18/24 , G10L25/63 , G06F18/25 , G06V40/16 , G06V10/764 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/0499 , G06N3/08
Abstract: 本发明提供一种基于互信息的多模态情感识别方法及系统,方法包括获取视频数据和音频数据;根据所述视频数据和音频数据以及已经训练好的多模态情感识别模型,获得情感分类结果;其中,在所述多模态情感识别模型中,定义总体损失函数,基于得到的总体损失,训练多模态情感识别模型;所述总体损失函数由单模态特有信息学习损失函数、模态间的共同信息学习损失函数、多模态融合特征最小充分表示损失函数、情感识别分类损失函数组成。本发明利用互信息剔除冗余信息、提取相关信息,并挖掘不同模态之间的互补性,提高了多模态情感识别精度。
-
公开(公告)号:CN116403151A
公开(公告)日:2023-07-07
申请号:CN202211642729.X
申请日:2022-12-20
Applicant: 南京工业大学
IPC: G06V20/52 , G06V10/82 , G06N3/04 , G06N3/084 , G06V10/762
Abstract: 本发明公开了一种基于自适应深度神经网络的地铁人流密度估计方法。该方法包括步骤:数据处理,自适应K‑means聚类确定锚框数量及锚框长宽,不同尺度的特征提取,根据自适应K‑means聚类结果自动确定特征融合网络不同尺度的特征图,利用自适应融合网络ASFF融合不同尺度特征之间的不一致性,对不同尺度的特征图进行预测并计算损失,行人头部检测模型网络训练,以及实时的人流密度估计。相比现有技术,本发明在检测速度、检测精度上都有大幅度的提升。
-
公开(公告)号:CN111325166B
公开(公告)日:2023-07-07
申请号:CN202010119569.5
申请日:2020-02-26
Applicant: 南京工业大学
IPC: G06V40/20 , G06V10/774 , G06V10/764 , G06V10/20 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明涉及一种基于投影重构和多输入多输出神经网络(MIMO‑CNN)的坐姿识别方法,包括:获取人体上半身深度图像及人体前景轮廓图;预处理;对坐姿轮廓的深度信息进行投影,重构得到三视角深度图;设计用于坐姿识别的MIMO‑CNN网络并学习模型参数;坐姿识别;模型自学习。优点:预处理后深度图像和人体轮廓图进行结合,排除周围背景对坐姿识别的干扰。使用投影重构方法得到三视角深度图,使得坐姿信息更加丰富。所设计的MIMO‑CNN结构,特别适用于投影重构特征信息同时融入了注意力机制,能更好的关注不同坐姿的热点区域,从而提升识别精度,同时采用模型自学习,较好地平衡了实时性和准确性需求,对视角变化和复杂环境背景,具有较强的抗干扰能力。
-
公开(公告)号:CN115973867A
公开(公告)日:2023-04-18
申请号:CN202210017399.9
申请日:2022-01-07
Applicant: 江苏省特种设备安全监督检验研究院 , 南京工业大学
IPC: B66B5/00
Abstract: 本发明公开了一种在用曳引电梯制动器的无载荷安全性能检测方法,该方法可以对在用曳引电梯制动器的静态和动态制动性能进行检测。包括:通过对曳引电机施加等效于150%额定载荷的补偿力矩,对电梯进行等效于150%额定载荷静止制动测试;通过对曳引电机施加等效于125%额定载荷的补偿力矩,对电梯进行等效于125%额定载荷额定速度下行制动测试;对电梯轿厢进行空载超速上行测试。若电梯能够通过上述三个制动测试,则电梯制动器的安全性能达标。本发明无需进行人工砝码加载,完全避免了加载制动试验对电梯系统造成的损害,可简单、准确和快速地进行电梯制动器的安全性能检测,提高电梯制动器安全性能检测作业效率和作业安全水,降低检测成本。
-
公开(公告)号:CN101299586B
公开(公告)日:2011-04-13
申请号:CN200810124095.2
申请日:2008-06-13
Applicant: 南京工业大学
Abstract: 本发明是永磁同步电机的无速度传感器逆控制变频调速器及构造方法,适用于永磁同步电机在不安装机械式速度传感器条件下的高性能调速控制,其结构是包括无速度传感器逆控制器,功率变换器和电流和电压霍尔传感器:其构造方法,由线性闭环调节器、永磁同步电机的逆系统、逆Park变换、空间矢量脉宽调制SVPWM模块和转子位置与转速估计器为采用数字信号处理器,通过编制程序软件来实现。优点:用于构造新型的永磁同步电机变频调速器,实现永磁同步电机无机械式速度传感器的高性能转速与伺服控制。广泛应用于以永磁同步电机为动力装置的交流电力传动与伺服系统,调速系统无需在电机转轴上安装机械式传感器,硬件结构简单,运行可靠,成本低。
-
公开(公告)号:CN119314226A
公开(公告)日:2025-01-14
申请号:CN202411345099.9
申请日:2024-09-25
Applicant: 南京工业大学
IPC: G06V40/20 , G06V10/774 , G06V10/764 , G06V20/40 , G06N3/0455
Abstract: 本发明提供一种基于多模态融合的动态手势识别方法。首先,获取动态手势数据集作为训练样本,包含RGB图像和深度图像两种模态的视频流;对训练样本进行预处理;构建多模态手势分类识别模型;采用动态梯度调制方法优化算法,将预处理后的训练样本输入构建的多模态手势分类识别模型进行训练;获取待识别的动态手势数据,经预处理后输入训练好的多模态手势分类识别模型获取分类识别结果。本发明提出了一种基于多模态融合的动态手势识别方法,通过平衡不同模态的优化速度有效降低了模态间的异质性,可以充分利用RGB图像与深度图像的互补信息,获取丰富的特征信息,提升了多模态动态手势识别模型的性能。
-
公开(公告)号:CN118038167A
公开(公告)日:2024-05-14
申请号:CN202410231530.0
申请日:2024-02-29
Applicant: 南京工业大学
IPC: G06V10/764 , G06V10/774 , G06V10/776 , G06V10/77 , G06V10/74 , G06V10/82 , G06N3/0455 , G06N3/0985
Abstract: 本发明提供一种基于度量元学习的小样本图像分类方法,所述方法包括特征映射模块、交叉注意力模块、距离度量模块、损失函数模块四部分构成的度量元学习模型。首先获取图像分类数据集,将数据集按照类别划分为训练集和测试集,且这两个数据集标签类别的交集为空集;从训练集中抽取大量小样本图像分类训练任务,从测试集构建目标小样本图像分类任务;构建由特征映射模块、交叉注意力模块、距离度量模块、损失函数模块组成的度量元学习模型;基于小样本分类训练任务,以最小化总体损失函数为目标,对度量元学习模型进行元训练,得到小样本图像分类模型;对于目标小样本任务,将测试集的支持集和查询集送入训练好的小样本图像分类模型,根据余弦距离度量模块来计算测试集查询样本的标签。本发明提供的基于度量元学习的小样本图像分类方法,减小同类别样本特征之间差异性,提升了特征空间中同类别特征分布的紧凑性,提高了特征提取模块的特征提取能力,从而提升了度量元学习模型在小样本图像分类任务上的分类精度。
-
公开(公告)号:CN118015535A
公开(公告)日:2024-05-10
申请号:CN202410070428.7
申请日:2024-01-17
Applicant: 南京工业大学
Abstract: 本发明设计了一种基于跟踪丢失触发机制的跌倒行为检测方法。具体包括以下步骤:S1、首先获取待检测的视频图像;S2、设定跌倒检测范围;S3、采用头肩部检测器获取行人头肩部的检测框;S4、采用目标跟踪器对行人进行实时跟踪,并绘制行人运动轨迹;S5、判断是否触发跌倒姿态检测器,若发生跟踪丢失则触发跌倒姿态检测器,否则返回步骤S1;S6、将当前帧的图像传入跌倒姿态检测器,若检测到跌倒姿态,则认为发生跌倒行为,并弹出报警框,若未检测出跌倒姿态,则认为未发生跌倒行为;S7、重复步骤S1至S6,直至视频结束。本项目提出的基于跟踪丢失触发机制的跌倒行为检测方法降低了复杂遮挡场景下的漏报率、并且不会将擦地、坐卧等行为误判为跌倒,实现了复杂场景下行人跌倒行为的自动准确检测。
-
公开(公告)号:CN111325166A
公开(公告)日:2020-06-23
申请号:CN202010119569.5
申请日:2020-02-26
Applicant: 南京工业大学
Abstract: 本发明涉及一种基于投影重构和多输入多输出神经网络(MIMO-CNN)的坐姿识别方法,包括:获取人体上半身深度图像及人体前景轮廓图;预处理;对坐姿轮廓的深度信息进行投影,重构得到三视角深度图;设计用于坐姿识别的MIMO-CNN网络并学习模型参数;坐姿识别;模型自学习。优点:预处理后深度图像和人体轮廓图进行结合,排除周围背景对坐姿识别的干扰。使用投影重构方法得到三视角深度图,使得坐姿信息更加丰富。所设计的MIMO-CNN结构,特别适用于投影重构特征信息同时融入了注意力机制,能更好的关注不同坐姿的热点区域,从而提升识别精度,同时采用模型自学习,较好地平衡了实时性和准确性需求,对视角变化和复杂环境背景,具有较强的抗干扰能力。
-
-
-
-
-
-
-
-
-