-
公开(公告)号:CN111401460B
公开(公告)日:2023-04-25
申请号:CN202010213305.6
申请日:2020-03-24
Applicant: 南京师范大学镇江创新发展研究院 , 南京师范大学
IPC: G06F18/2433 , G06F18/2411 , G06F18/2413 , G06F18/232
Abstract: 本发明公开了一种基于限值学习的异常电量数据辨识方法。该方法首先通过异常电量数据分析得出异常电量数据的类型和鉴别算法;然后通过对OneClassSVM算法分析研究,对异常电量数据的鉴别限值进行学习,得到限值学习表,通过限值学习表校核历史数据的异常电量数据,接着通过分析基于密度的聚类算法DBSCAN算法校核历史数据中的离群值,实现基于限值学习的异常电量数据辨识;最后对同样基于密度的聚类算法LOF算法进行分析研究,结合两种基于密度的聚类算法进行实验,同时对多维数据进行离群值辨识,实现了基于密度聚类算法的多维电量数据离群值辨识。
-
公开(公告)号:CN111401460A
公开(公告)日:2020-07-10
申请号:CN202010213305.6
申请日:2020-03-24
Applicant: 南京师范大学镇江创新发展研究院 , 南京师范大学
IPC: G06K9/62
Abstract: 本发明公开了一种基于限值学习的异常电量数据辨识方法。该方法首先通过异常电量数据分析得出异常电量数据的类型和鉴别算法;然后通过对OneClassSVM算法分析研究,对异常电量数据的鉴别限值进行学习,得到限值学习表,通过限值学习表校核历史数据的异常电量数据,接着通过分析基于密度的聚类算法DBSCAN算法校核历史数据中的离群值,实现基于限值学习的异常电量数据辨识;最后对同样基于密度的聚类算法LOF算法进行分析研究,结合两种基于密度的聚类算法进行实验,同时对多维数据进行离群值辨识,实现了基于密度聚类算法的多维电量数据离群值辨识。
-
公开(公告)号:CN111563452B
公开(公告)日:2023-04-21
申请号:CN202010371935.6
申请日:2020-05-06
Applicant: 南京师范大学镇江创新发展研究院 , 南京师范大学
IPC: G06V40/16 , G06V40/10 , G06V10/764 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明提供了一种基于实例分割的多人体姿态检测及状态判别方法,包括:采集课堂视频的原始分帧图像;分割出学生个体和非学生个体,以不同颜色的掩码标注不同学生个体,同时进行姿态检测,提取出各学生人体姿态的关键点,并进行标注连接;对学生的听课状态进行具体判别,对学生脸部进行识别和定位,判断所有学生个体是否能检测到正面人脸,如果能,则初步说明该同学处于听课状态,并判断该同学是否处于举手状态;如果无法检测出人脸,则进一步判断其是否处于不听课状态。结合每个学生个体听课状态对学生听课效率进行评估。本发明为实现学生听课状态的判别与分析提供解决方法,具有可实时识别,识别精度高,抗复杂环境干扰性强等优点。
-
公开(公告)号:CN111563452A
公开(公告)日:2020-08-21
申请号:CN202010371935.6
申请日:2020-05-06
Applicant: 南京师范大学镇江创新发展研究院 , 南京师范大学
Abstract: 本发明提供了一种基于实例分割的多人体姿态检测及状态判别方法,包括:采集课堂视频的原始分帧图像;分割出学生个体和非学生个体,以不同颜色的掩码标注不同学生个体,同时进行姿态检测,提取出各学生人体姿态的关键点,并进行标注连接;对学生的听课状态进行具体判别,对学生脸部进行识别和定位,判断所有学生个体是否能检测到正面人脸,如果能,则初步说明该同学处于听课状态,并判断该同学是否处于举手状态;如果无法检测出人脸,则进一步判断其是否处于不听课状态。结合每个学生个体听课状态对学生听课效率进行评估。本发明为实现学生听课状态的判别与分析提供解决方法,具有可实时识别,识别精度高,抗复杂环境干扰性强等优点。
-
公开(公告)号:CN109459037A
公开(公告)日:2019-03-12
申请号:CN201811635695.5
申请日:2018-12-29
Applicant: 南京师范大学镇江创新发展研究院
Abstract: 本发明公开了一种基于SLAM智能载体的环境信息采集方法,通过对多种环境信息的采集,实现对未知环境进行多元环境信息分布图的构建,并通过分析智能载体周围环境信息的分布实现对环境物体及其特征的识别,通过三维空间内的物体整体分布情况及其特征,辅助智能载体进行定位与导航。本发明还提出基于该方法的系统,所述系统包括环境信息采集模块、SLAM智能载体和远程信息处理计算机系统。本发明能够实现对未知环境进行多元环境信息分布图的构建,并通过人工智能算法对环境信息数据进行分析和精度的优化。区别于传统SLAM技术的空间建模方法,本发明可以在特定环境中同时进行智能载体定位辅助、环境特征检测、物体识别、人员搜救等。
-
公开(公告)号:CN110125909B
公开(公告)日:2022-04-22
申请号:CN201910427971.7
申请日:2019-05-22
Applicant: 南京师范大学镇江创新发展研究院
Abstract: 本发明公开了一种多信息融合人体外骨骼机器人控制保护系统。该系统包括若干组安装在人体四肢部位的惯性测量组件、肌电传感器,安装在胸部的呼吸传感器,佩戴在头部的深度摄像头,以及安装在人体任意位置的机器学习处理计算机。将某时刻各传感器采集的有效数据作为基于BPTT算法的LSTM神经网络的输入,以从该时刻开始计算机处理机器学习算法所消耗的时间与机器人各位置舵机接收控制信号的最大延迟时间之和作为时间间隔,把该时间间隔后的时刻所表征人体的运动意图的控制信号作为输出,通过神经网络训练,建立工程中难以用解析式表达的非线性函数映射关系,实现由该时刻的动作判断人体下一时刻的运动意图,从而输出相应的控制信号的功能。
-
公开(公告)号:CN110125909A
公开(公告)日:2019-08-16
申请号:CN201910427971.7
申请日:2019-05-22
Applicant: 南京师范大学镇江创新发展研究院
IPC: B25J9/00 , B25J9/16 , A61B5/0488 , A61B5/08 , A61B5/11
Abstract: 本发明公开了一种多信息融合人体外骨骼机器人控制保护系统。该系统包括若干组安装在人体四肢部位的惯性测量组件、肌电传感器,安装在胸部的呼吸传感器,佩戴在头部的深度摄像头,以及安装在人体任意位置的机器学习处理计算机。将某时刻各传感器采集的有效数据作为基于BPTT算法的LSTM神经网络的输入,以从该时刻开始计算机处理机器学习算法所消耗的时间与机器人各位置舵机接收控制信号的最大延迟时间之和作为时间间隔,把该时间间隔后的时刻所表征人体的运动意图的控制信号作为输出,通过神经网络训练,建立工程中难以用解析式表达的非线性函数映射关系,实现由该时刻的动作判断人体下一时刻的运动意图,从而输出相应的控制信号的功能。
-
公开(公告)号:CN109146972A
公开(公告)日:2019-01-04
申请号:CN201810954414.6
申请日:2018-08-21
Applicant: 南京师范大学镇江创新发展研究院
CPC classification number: G06T7/73 , G06K9/4609 , G06K9/4671 , G06K9/6223 , G06T2207/10016
Abstract: 本发明公开了基于快速特征点提取及网格化三角形约束的视觉导航方法,包括如下步骤:采集连续视频帧序列图像,提取相邻两帧图像中的特征点;对提取的相邻两帧图像进行网格化划分;对每个三角形构建6维形状描述子及32维区域描述子,得到由每个三角形的38维混合描述子组成的特征向量;对网格化划分对应三角形的特征向量进行匹配,通过中心点聚类方法选取具有显著特性的特征点,剔除错误匹配的特征点,利用极线几何约束剔除运动特征点,获得有效可用特征点对;完成最终的运动模型求解,获得视觉导航解算的位置结果。本发明为室内环境下的机器人视觉导航与定位提供解决方法,具有特征点提取速度快、匹配率高的优点。
-
公开(公告)号:CN109146972B
公开(公告)日:2022-04-12
申请号:CN201810954414.6
申请日:2018-08-21
Applicant: 南京师范大学镇江创新发展研究院
IPC: G06T7/73 , G06V10/44 , G06V10/46 , G06V10/762 , G06K9/62
Abstract: 本发明公开了基于快速特征点提取及网格化三角形约束的视觉导航方法,包括如下步骤:采集连续视频帧序列图像,提取相邻两帧图像中的特征点;对提取的相邻两帧图像进行网格化划分;对每个三角形构建6维形状描述子及32维区域描述子,得到由每个三角形的38维混合描述子组成的特征向量;对网格化划分对应三角形的特征向量进行匹配,通过中心点聚类方法选取具有显著特性的特征点,剔除错误匹配的特征点,利用极线几何约束剔除运动特征点,获得有效可用特征点对;完成最终的运动模型求解,获得视觉导航解算的位置结果。本发明为室内环境下的机器人视觉导航与定位提供解决方法,具有特征点提取速度快、匹配率高的优点。
-
公开(公告)号:CN111507227A
公开(公告)日:2020-08-07
申请号:CN202010280435.1
申请日:2020-04-10
Applicant: 南京汉韬科技有限公司 , 南京师范大学 , 南京吉仁智能科技有限公司
Abstract: 本发明提供了基于深度学习的多学生个体分割及状态自主识别方法,包括:采集正常上课视频,进行分帧处理,得到课堂视频的连续帧图像;分割出学生个体和非学生个体,将不学生生个体标记为不同颜色的掩码;通过人脸特征点定位方法找到每个学生个体的人眼特征点,计算每个学生个体的人眼闭合度特征值,判断每个学生个体当前是否处于听课状态;判断所有学生个体是否检测到人脸,判断学生个体的听课状态等级;结合每个学生个体是否处于听课状态及每个学生个体是否处于未抬头状态设计了整个课堂时段学生听课效率评估方法。本发明为实现学生听课状态自主识别及听课效率的判别提供解决方法,具有速度快、识别率高、环境适应能力强的优点。
-
-
-
-
-
-
-
-
-