-
公开(公告)号:CN107657244B
公开(公告)日:2020-12-01
申请号:CN201710952871.7
申请日:2017-10-13
Applicant: 河海大学
Abstract: 本发明公开了一种基于多摄像机的人体跌倒行为检测方法,包括步骤:基于多摄像机的监控视频获取,运动的人体目标检测和分类,轮廓深度图和质心运动速率特征提取,基于支持向量机组合分类器的跌倒检测,以及多摄像机的检测结果融合。当系统检测到人体跌倒行为时,立即向监控终端发出告警信号。本发明采用多个摄像机融合监控,实现独居空巢老人的智能家居看护,可避免因遮挡引起的误检和漏检,检测准确率高,算法具有实时性。
-
公开(公告)号:CN111783540A
公开(公告)日:2020-10-16
申请号:CN202010483894.X
申请日:2020-06-01
Applicant: 河海大学
Abstract: 本发明公开了一种视频中人体行为识别方法和系统,由光流帧生成网络和长时递归卷积神经网络级联构成时间流深度卷积神经网络,由长时递归卷积神经网络构成空间流深度卷积神经网络,采用多维度加权融合模型融合双流网络的预测结果,得到视频数据的人体行为类型预测。本发明检测准确率高,应用场合广泛,具有良好的泛化能力。
-
公开(公告)号:CN117351388A
公开(公告)日:2024-01-05
申请号:CN202311237639.7
申请日:2023-09-22
Applicant: 河海大学
IPC: G06V20/40 , G06V40/10 , G06V40/20 , G06V10/82 , G06V10/80 , G06N3/0464 , G06N3/08 , G06N3/0455
Abstract: 本发明公开了一种视频人体行为识别方法、系统、装置及存储介质,对人体行为视频数据集中的每一个样本,先提取获得其RGB图像帧序列,并进行预处理;将每个训练集样本对应的预处理后的RGB图像帧序列输入经过预训练的空间流行为识别子模块、时间流行为识别子模块和时空流行为识别子模块,分别由其特征提取网络提取空间、时间、时空维度特征,获得预测结果,使用多模块融合算法将预测结果进行融合,获得多流网络的人体行为类型识别结果。本发明不需要手工设计特征,将深度卷积神经网络和Transformer模型结合,能够有效改善模型的序列建模能力和有效提高人体行为识别精准度,并且具有良好的泛化性能。
-
公开(公告)号:CN113222896A
公开(公告)日:2021-08-06
申请号:CN202110389446.8
申请日:2021-04-12
Applicant: 河海大学
Abstract: 本发明公开了一种基于元学习的光伏面板缺陷检测方法,包括:建立基类数据集和新类数据集;对基类数据集和新类数据集图像进行预处理;从预处理后的基类数据集中选取图像数据,进行第一阶段训练;从预处理后的基类数据集和新类数据集中选取图像数据,进行第二阶段训练;采集待测光伏面板近红外视频,从视频中提取图像帧,利用图像分割算法将图像帧分割成电池片图像;利用光伏面板缺陷检测模型对电池片图像进行检测,确认是否存在光伏缺陷,若有,则标注出缺陷在待测图像中位置。本发明将元学习方法与两阶段的目标检测算法Faster RCNN结合起来,更加适用于只有少量样本的表面缺陷检测任务,具有检测成本低、检测速度快、准确率高的优点。
-
公开(公告)号:CN116773527A
公开(公告)日:2023-09-19
申请号:CN202310535803.6
申请日:2023-05-12
Applicant: 河海大学
IPC: G01N21/88 , G06T1/00 , G06T1/20 , G06T7/00 , G06T5/00 , G06V20/05 , G06V10/12 , G06V10/26 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明涉及水下机器人视觉技术领域,具体是一种用于水下机器人的海缆图像增强和缺陷检测装置及方法,装置包括信号相连的图像采集单元和处理单元,所述图像采集单元包括设于水下机器人设备舱上的相机云台和放置于所述相机云台上的水下摄像头;所述处理单元包括设于水下机器人设备舱内的散热壳体和设于所述散热壳体内的树莓派。本发明提供的用于水下机器人的海缆图像增强和缺陷检测装置及方法,能够利用水下机器人实现对海缆图像的增强和缺陷检测。
-
公开(公告)号:CN115239967A
公开(公告)日:2022-10-25
申请号:CN202210794055.9
申请日:2022-07-07
Applicant: 河海大学
Abstract: 本发明公开了一种基于Trans‑CSN生成对抗网络的图像生成方法及装置,旨在解决纯Transformer生成对抗网络训练慢和判别器不能得到充分训练的问题。方法包括:设计基于生成对抗网络的模型,其中包括基于Transformer的生成器模型和基于CSN的判别器模型;将基于Transformer的生成器模型和基于CSN的判别器模型进行对抗训练,轮流训练至模型收敛;将随机噪声输入到训练好的生成器模型中,得到和训练时输入判别器的数据集相似的生成图像。
-
公开(公告)号:CN111783540B
公开(公告)日:2022-08-05
申请号:CN202010483894.X
申请日:2020-06-01
Applicant: 河海大学
Abstract: 本发明公开了一种视频中人体行为识别方法和系统,由光流帧生成网络和长时递归卷积神经网络级联构成时间流深度卷积神经网络,由长时递归卷积神经网络构成空间流深度卷积神经网络,采用多维度加权融合模型融合双流网络的预测结果,得到视频数据的人体行为类型预测。本发明检测准确率高,应用场合广泛,具有良好的泛化能力。
-
公开(公告)号:CN112766062A
公开(公告)日:2021-05-07
申请号:CN202011617145.8
申请日:2020-12-30
Applicant: 河海大学
Abstract: 本发明公开了一种基于双流深度神经网络的人体行为识别方法,旨在解决深度学习运用在视频识别中存在的技术问题。其包括:根据原始视频数据集获得多个RGB图像序列;利用训练好的空间域行为识别模型和时间域行为识别模型分别处理RGB图像序列,获得空间域识别类型概率矩阵和时间域识别类型概率矩阵;利用均值融合模型对空间域识别类型概率矩阵和时间域识别类型概率矩阵进行概率融合,获得原始视频数据集对应的人体行为识别结果。本发明能够有效提高人体行为识别精准度,并且具有良好的泛化性能。
-
公开(公告)号:CN112766062B
公开(公告)日:2022-08-05
申请号:CN202011617145.8
申请日:2020-12-30
Applicant: 河海大学
Abstract: 本发明公开了一种基于双流深度神经网络的人体行为识别方法,旨在解决深度学习运用在视频识别中存在的技术问题。其包括:根据原始视频数据集获得多个RGB图像序列;利用训练好的空间域行为识别模型和时间域行为识别模型分别处理RGB图像序列,获得空间域识别类型概率矩阵和时间域识别类型概率矩阵;利用均值融合模型对空间域识别类型概率矩阵和时间域识别类型概率矩阵进行概率融合,获得原始视频数据集对应的人体行为识别结果。本发明能够有效提高人体行为识别精准度,并且具有良好的泛化性能。
-
公开(公告)号:CN113205028A
公开(公告)日:2021-08-03
申请号:CN202110453896.9
申请日:2021-04-26
Applicant: 河海大学
IPC: G06K9/00 , G06F16/951 , G06K9/62 , G06N3/04 , G06N3/08
Abstract: 本发明公开了一种基于改进YOLOv3模型的行人检测方法及系统,包括:获取自动驾驶场景下实时采集的监控场景视频,从视频中提取图像帧;将图像帧输入到预先训练好的改进YOLOv3模型,利用改进YOLOv3模型对图像帧中是否包含行人进行判断,若是则用边界框标记,若否则不做任何处理。优点:本发明能够提高对遮挡目标的识别能力,有效提高行人检测精度,对小目标和遮挡目标误检率更低,并且速度更快,具有一定的实际应用价值,并且具有良好的泛化性能。
-
-
-
-
-
-
-
-
-