-
公开(公告)号:CN112802129B
公开(公告)日:2021-07-06
申请号:CN202110392460.3
申请日:2021-04-13
Applicant: 之江实验室
Abstract: 本发明公开了一种基于单目视觉的焊接安全距离测量方法,属于焊接安全领域。该方法具体为利用放置标志物的图像坐标及世界坐标,计算地面和映射平面高度的单应矩阵;并将图像数据集输入改进的Faster RCNN+FPN目标检测模型,输出目标检测结果;最后通过地面单应矩阵、映射平面高度单应矩阵和目标物检测结果,并针对实际焊接场景,获得一种明火高度测量方法,实现目标物间距离测量。本发明的焊接安全距离测量方法能有效检测易燃气瓶是否倾倒及测量目标物间距离,并在目标物间距离小于阈值时发出预警,减少人工监督成本和存在的安全隐患。
-
公开(公告)号:CN113673489B
公开(公告)日:2022-04-08
申请号:CN202111225547.8
申请日:2021-10-21
Applicant: 之江实验室
IPC: G06V20/40 , G06V20/52 , G06V10/764 , G06V10/774 , G06V10/80 , G06V10/82 , G06K9/62 , G06N3/04 , G06N3/08
Abstract: 本发明涉及计算机视觉及深度学习领域,尤其涉及一种基于级联Transformer的视频群体行为识别方法,首先采集生成视频数据集,将视频数据集经过三维骨干网络提取三维时空特征,选取关键帧图像空间特征图;对关键帧图像空间特征图进行预处理后送入人体目标检测Transformer,输出关键帧图像中的人体目标框;然后,映射筛选后人体目标框在关键帧图像特征图上所对应的子特征图,结合关键帧图像周围帧特征图计算query/key/value,输入群体行为识别Transfomer,输出群体级别时空编码特征图;最后,经过多层感知机对群体行为进行分类。本发明具有有效提高群体行为识别准确率的效果。
-
公开(公告)号:CN113673489A
公开(公告)日:2021-11-19
申请号:CN202111225547.8
申请日:2021-10-21
Applicant: 之江实验室
Abstract: 本发明涉及计算机视觉及深度学习领域,尤其涉及一种基于级联Transformer的视频群体行为识别方法,首先采集生成视频数据集,将视频数据集经过三维骨干网络提取三维时空特征,选取关键帧图像空间特征图;对关键帧图像空间特征图进行预处理后送入人体目标检测Transformer,输出关键帧图像中的人体目标框;然后,映射筛选后人体目标框在关键帧图像特征图上所对应的子特征图,结合关键帧图像周围帧特征图计算query/key/value,输入群体行为识别Transfomer,输出群体级别时空编码特征图;最后,经过多层感知机对群体行为进行分类。本发明具有有效提高群体行为识别准确率的效果。
-
公开(公告)号:CN112528960A
公开(公告)日:2021-03-19
申请号:CN202011588312.0
申请日:2020-12-29
Applicant: 之江实验室
Abstract: 本发明属于视频行为分析技术领域,涉及一种基于人体姿态估计和图像分类的吸烟行为检测方法,首先读取检测区域监控视频,对视频帧进行预处理和归一化,然后采用YoloV3目标检测方法进行人体框检测,得到人体框位置坐标,在视频帧上面进行剪裁,得到需要进行人体姿态估计的子图,再以所述子图作为输入,使用改进后的人体姿态估计的方法AlphaPose进行人体关键点检测提取,通过定位嘴部和左、右手腕关键点,截取相应的局部图像块,制作分类网络数据集,设计图像分类网络模型,进行网络训练,得到吸烟分类模型,再采用训练好的模型对实时图像进行分类判断,得到视频的吸烟行为检测结果。本发明较好的弥补了两种方法的不足,同时改进算法,提升了检测效率。
-
公开(公告)号:CN114648723B
公开(公告)日:2024-08-02
申请号:CN202210454687.0
申请日:2022-04-28
IPC: G06V20/40 , G06V20/52 , G06N3/0464 , G06N3/0895 , G06N3/084
Abstract: 本发明涉及智能视频监控及深度学习领域,尤其涉及一种基于时间一致性对比学习的动作规范性检测方法和装置,该方法为:首先将第一数量标注和第二数量未标注的通过摄像头采集的视频构建数据集,第一数量小于第二数量;然后将未标注视频经过强弱数据增强后提取特征,再输入时间一致性行为对齐网络,输出特征图和不同样本间相似动作起始与结束帧集合,映射集合在特征图上对应子特征图,构造同类与不同类子特征图样本,送入对比学习网络提取时空判别性特征;再将第一数量标注视频送入预训练后的网络进行迁移学习,输出行为类别;最后通过帧间行为类别变化判断行为规范性,若不规范则发出预警。
-
公开(公告)号:CN112528960B
公开(公告)日:2023-07-14
申请号:CN202011588312.0
申请日:2020-12-29
Applicant: 之江实验室
IPC: G06V40/20 , G06V10/46 , G06V20/52 , G06V10/764 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明属于视频行为分析技术领域,涉及一种基于人体姿态估计和图像分类的吸烟行为检测方法,首先读取检测区域监控视频,对视频帧进行预处理和归一化,然后采用YoloV3目标检测方法进行人体框检测,得到人体框位置坐标,在视频帧上面进行剪裁,得到需要进行人体姿态估计的子图,再以所述子图作为输入,使用改进后的人体姿态估计的方法AlphaPose进行人体关键点检测提取,通过定位嘴部和左、右手腕关键点,截取相应的局部图像块,制作分类网络数据集,设计图像分类网络模型,进行网络训练,得到吸烟分类模型,再采用训练好的模型对实时图像进行分类判断,得到视频的吸烟行为检测结果。本发明较好的弥补了两种方法的不足,同时改进算法,提升了检测效率。
-
公开(公告)号:CN113793380A
公开(公告)日:2021-12-14
申请号:CN202110995023.0
申请日:2021-08-27
Applicant: 之江实验室
Abstract: 本发明公开了一种基于单目相机的头部三维坐标的摔倒检测方法,首先估计单目视频中头部三维坐标,再根据头部三维坐标的变化检测人员是否摔倒。单目头部三维坐标估计通过相机标定获得相机内参矩阵,通过头部检测获得头部在图像中的矩形框,利用相机内参、头部矩形框和预设的头部基本几何参数构建头部三维坐标求解方程,求解在相机坐标系下的头部三维坐标。通过系统标定获得世界坐标系到相机坐标系的变换矩阵,经过坐标变换,得到在世界坐标系下的头部三维坐标。当头部坐标z分量小于一定阈值时判定人员为摔倒状态。本方法利用单个摄像头即可估计头部的三维坐标,并判断人员是否摔倒,硬件成本低,可广泛应用于智能监控等领域。
-
公开(公告)号:CN117252930B
公开(公告)日:2024-05-28
申请号:CN202311222096.1
申请日:2023-09-21
Applicant: 之江实验室
IPC: G06T7/80
Abstract: 本发明公开了一种大型展厅多相机监控系统内外参标定方法和系统,包括以下步骤:获取多相机视频数据作为标定数据;对标定数据进行预处理;进行单目相机标定得到相机内参初值;使用链式法进行相机外参初步估计得到每个相机相对于世界坐标系的位姿作为相机外参初值;进行标定板位姿初步估计得到每个特定姿态下的标定板位姿初值;构造总重投影误差作为目标函数并引入基于畸变参数的正则项;使用相机内参初值、相机外参初值和标定位板位姿初值,最小化带有正则项的目标函数以求解全局优化问题,得到最优相机内外参数。本发明能够减小人工成本和风险,提高相机内外参标定的准确性,适用于高空悬挂或处于开阔空间中的多相机系统内外参标定应用场景。
-
公开(公告)号:CN114757822B
公开(公告)日:2022-11-04
申请号:CN202210663896.6
申请日:2022-06-14
Abstract: 本发明公开一种基于双目的人体三维关键点检测方法及系统,该方法包括:步骤一:通过采用YOLOv5目标检测算法的目标检测模块分别获得左、右视场图像中的人体矩形框;步骤二:扣取人体矩形框对应的人体图像,通过人体二维关键点识别算法提取左、右视场图像中人体各关键点的二维热力图;步骤三:将左、右人体二维关键点热力图反向投影到三维空间,得到三维反投影热力图;步骤四,将三维反投影热力图输入三维卷积编解码网络,通过编解码操作得到三维关键点热力图;步骤五,三维关键点热力图中每一通道通过自变量最大值软操作得到该通道表示的三维关键点所在坐标,最终得到全部人体三维关键点坐标。本发明具有较高的可行性和实用性。
-
公开(公告)号:CN114648723A
公开(公告)日:2022-06-21
申请号:CN202210454687.0
申请日:2022-04-28
Abstract: 本发明涉及智能视频监控及深度学习领域,尤其涉及一种基于时间一致性对比学习的动作规范性检测方法和装置,该方法为:首先将第一数量标注和第二数量未标注的通过摄像头采集的视频构建数据集,第一数量小于第二数量;然后将未标注视频经过强弱数据增强后提取特征,再输入时间一致性行为对齐网络,输出特征图和不同样本间相似动作起始与结束帧集合,映射集合在特征图上对应子特征图,构造同类与不同类子特征图样本,送入对比学习网络提取时空判别性特征;再将第一数量标注视频送入预训练后的网络进行迁移学习,输出行为类别;最后通过帧间行为类别变化判断行为规范性,若不规范则发出预警。
-
-
-
-
-
-
-
-
-