基于5G和人工智能的视频监控系统及方法

    公开(公告)号:CN117255178A

    公开(公告)日:2023-12-19

    申请号:CN202311241391.1

    申请日:2023-09-25

    Abstract: 本发明涉及视频监控技术领域,尤其涉及一种基于5G和人工智能的视频监控系统及方法,其中,所述方法包括以下步骤:数据收集与准备、神经网络构建、数据标注、神经网络模型训练、对神经网络模型进行优化、边缘部署、实时视频处理、视频分析和决策、智能摄像头通过5G网络与云服务器进行通信,针对检测准确性和检测速度慢问题,通过使用贝叶斯优化算法结合随机搜索算法调整CNN模型,提高目标检测的速度,针对在传输过程中数据的安全性问题,通过比特级排列和像素级扩散的加密算法,对视频流数据进行高强度的加密保护,本方法以解决传统方法在检测准确性和检测速度慢的局限性,实现高效、智能和可靠的基于5G和人工智能的视频监控。

    基于两次迁移学习和数据增广的船舶目标检测方法

    公开(公告)号:CN113537085A

    公开(公告)日:2021-10-22

    申请号:CN202110818790.4

    申请日:2021-07-20

    Abstract: 本发明公开了基于两次迁移学习和数据增广的船舶目标检测方法,包括建立船舶目标的图像数据集;利用固定步长旋转与图像拼接技术扩充图像数据集;对增广后的图像数据集进行标注,划分训练集和测试集;对Darknet网络模型进行预训练,从Coco数据集中筛选出Boat类图像及标签文件,在预训练好的Darknet网络模型上进行第一次迁移学习,获得船舶检测初步模型;用训练集在初步模型上进行第二次迁移学习,用测试集对学习后的模型进行测试,获得最终船舶检测模型;对待检测视频图像序列进行检测,获得船舶目标检测结果。解决了棘手场景中样本数据难以大量获得、基于深度学习的船舶目标检测中小样本学习困难的问题,提高了船舶目标检测的鲁棒性、准确性和快速性。

    一种探测机器人视觉目标检测方法

    公开(公告)号:CN111814726A

    公开(公告)日:2020-10-23

    申请号:CN202010701702.8

    申请日:2020-07-20

    Abstract: 本发明公开了一种探测机器人视觉目标检测方法,包括构建混合注意力自适应感知网络;训练所述混合注意力自适应感知网络;使用训练后的混合注意力自适应感知网络进行探测机器人视觉目标检测。所述混合注意力自适应感知网络包括全局注意力层次网络,目标空间定位网络、自适应局部注意力感知网络、目标分类识别网络,使用本发明能够在统一框架下完成目标定位与识别任务,且骨干网络均基于全局注意力机制下权重共享,能够综合two-stage与one-stage优点,在高实时的同时具备高准确率与低漏检率,适用于探测机器人高要求工作条件。

    基于聚类子区域关联的稳定特征挖掘和目标跟踪方法

    公开(公告)号:CN105512625A

    公开(公告)日:2016-04-20

    申请号:CN201510874560.4

    申请日:2015-12-02

    CPC classification number: G06K9/00718 G06K9/00744 G06K9/4652

    Abstract: 本发明公开了一种基于聚类子区域关联的稳定特征挖掘和目标跟踪方法,a)自适应检测目标运动区域,提取该运动区域的V色彩分量直方图峰轮廓,根据候选峰、区域峰和残余峰能量,获得聚类数;b)构建目标运动区域的S和V分量样本灰度矩阵,进行类数自适应的K-means聚类;c)对基于类的连通子区域进行标记并建立子区域模板、观测模型和增量模型描述;d)建立目标模板和当前观测模型子区域间关联,挖掘“模板-观测”稳定子区域特征对及模板特征变化率;e)加权融合模板各稳定子区域位移、目标检测区域中心和上一帧轨迹以定位目标当前轨迹,并根据稳定特征的加权平均增量及其变化率逐帧更新目标模板。

    基于空时域边缘和颜色特征关联的目标跟踪方法

    公开(公告)号:CN103065331B

    公开(公告)日:2015-07-08

    申请号:CN201310014279.4

    申请日:2013-01-15

    Abstract: 本发明公开了一种基于空时域边缘和颜色特征关联的目标跟踪方法,包括如下步骤:1)选择被跟踪目标区域;2)提取目标边缘轮廓,并计算边缘方向角;3)沿水平和垂直两正交方向统计边缘-颜色共生特征对,建立目标边缘-颜色关联质心模型;4)选择高置信度边缘-颜色对质心进行概率加权,获得当前帧目标质心转移向量;5)统计相邻帧目标边缘间距离直方图,对相邻帧间匹配成功的距离变化率进行概率加权,获得目标尺度缩放参数。本发明实现了拥挤场景、遮挡和目标尺度变化情况下的目标跟踪,提高了跟踪鲁棒性、准确性和实时性。在视频图像处理领域具有广泛的应用前景,应用于智能视频监控、企业生产自动化、智能机器人等领域。

    融合显著特征和分块模板的多目标跟踪方法

    公开(公告)号:CN104091348A

    公开(公告)日:2014-10-08

    申请号:CN201410211866.7

    申请日:2014-05-19

    Abstract: 本发明提供一种融合显著特征和分块模板的多目标跟踪方法,采用RGB分量背景差分和迭代阈值检测目标运动区域,提高了运动检测算法的场景光照变化自适应能力;基于目标区域分块、运动像素色彩显著度加权的块质心模型、块质心转移融合和尺度更新方法,计算效率高、抗部分遮挡和相似色彩场景干扰能力强;采用两级数据关联解决多目标测量-跟踪间分配问题,能准确定位发生遮挡的局部区域,从而利用遮挡矩阵指导模板自适应更新、利用块有效色彩和运动信息获得可靠的全局质心转移向量,最终实现复杂场景中多目标持续、稳定和快速跟踪,应用于智能视频监控、空中多目标跟踪与攻击、多任务跟踪智能机器人等领域。

    基于改进图像拼接和深度学习网络的板材类焊接件检测方法

    公开(公告)号:CN119205654A

    公开(公告)日:2024-12-27

    申请号:CN202411240279.0

    申请日:2024-09-05

    Abstract: 本发明公开了一种基于改进图像拼接和深度学习网络的板材类焊接件检测方法,包括:将摄像机组同一时间拍摄的板材类焊接件图像通过改进SURF算法的融合方法进行图像拼接融合;对YOLOv8神经网络进行结构改进,形成用于板材类焊接件的目标检测识别的改进型YOLOv8神经网络;综合得到NWD‑Inner‑IoU损失函数;将拼接融合图像数据集导入改进型YOLOv8神经网络,结合NWD‑Inner‑IoU损失函数对结构改进后的YOLOv8神经网络进行训练,将训练后的模型用于板材类焊接件的检测。本发明能够有效提高板材类焊接件检测准确率和检测精度,以及模型的鲁棒性,加强实用性,使其可以部署在边缘设备中,并且可以降低所需设备的性能要求。

    一种探测机器人视觉目标检测方法

    公开(公告)号:CN111814726B

    公开(公告)日:2023-09-22

    申请号:CN202010701702.8

    申请日:2020-07-20

    Abstract: 本发明公开了一种探测机器人视觉目标检测方法,包括构建混合注意力自适应感知网络;训练所述混合注意力自适应感知网络;使用训练后的混合注意力自适应感知网络进行探测机器人视觉目标检测。所述混合注意力自适应感知网络包括全局注意力层次网络,目标空间定位网络、自适应局部注意力感知网络、目标分类识别网络,使用本发明能够在统一框架下完成目标定位与识别任务,且骨干网络均基于全局注意力机制下权重共享,能够综合two‑stage与one‑stage优点,在高实时的同时具备高准确率与低漏检率,适用于探测机器人高要求工作条件。

    一种船舶目标检测方法及系统

    公开(公告)号:CN113496253A

    公开(公告)日:2021-10-12

    申请号:CN202110435198.6

    申请日:2021-04-22

    Abstract: 本发明公开了一种船舶目标检测方法,包括:将船舶目标图像数据标注后制作成训练样本集;构建基于YOLO v3轻量化的特征提取主干网络;根据特征提取主干网络建立基于YOLO v3改进的船舶目标检测网络模型;利用训练样本集对船舶目标检测网络模型进行训练;通过训练好的船舶目标检测网络模型对待检测的船舶图像数据进行检测,本发明提高了目标的检测速度。

Patent Agency Ranking