-
公开(公告)号:CN111047554B
公开(公告)日:2023-04-07
申请号:CN201911104286.7
申请日:2019-11-13
Applicant: 华南理工大学 , 华南理工大学珠海现代产业创新研究院
Abstract: 本发明公开了一种基于实例分割的复合绝缘子过热缺陷检测方法,包括步骤:1)数据集的构建与标注;2)利用数据增强算法对图像进行数据扩充;3)改进深度神经网络实例分割模型,以匹配特定复合绝缘子场景下的数据集并训练;4)利用红外摄像仪获取原始热红外图像,导入训练好的模型,分割得到初步ROI区域,并进行优化;5)从原始热红外图像中获取含有图中每一像素点温度的温度分布矩阵;6)根据最终的ROI区域的坐标从温度分布矩阵中提取相对应的温度信息,找到最高温及其位置,计算最高温与参考环境温度的温差,通过看温差有没有超过阈值来进行复合绝缘子是否存在过热缺陷的判断。通过本发明可以提高复合绝缘子过热缺陷检测的准确率。
-
公开(公告)号:CN114066993A
公开(公告)日:2022-02-18
申请号:CN202111238865.8
申请日:2021-10-25
Applicant: 华南理工大学 , 华南理工大学珠海现代产业创新研究院
Abstract: 本发明公开了一种基于机器视觉的配电柜控制面板分割方法,包括步骤:1)对相机进行标定,获得相机的内参数、外参数和畸变参数,校正镜头畸变,采集配电柜控制面板的图像并校正;在配电柜控制面板上测量编号牌长与宽的值,得到长宽比ω;2)对相机校正后的图像进行预处理,对外框及编号字符区分别进行定位和唯一匹配。本发明主要通过图像处理技术分别确定每一个配电柜柜面和编号的位置,再对其进行一对一的匹配,整个方法高效可靠,准确高。
-
公开(公告)号:CN114066729A
公开(公告)日:2022-02-18
申请号:CN202111223961.5
申请日:2021-10-19
Applicant: 华南理工大学 , 华南理工大学珠海现代产业创新研究院
Abstract: 本发明公开了一种可恢复身份信息的人脸超分辨率重建方法,包括:1)准备训练数据,包括低分辨率输入图像、高分辨率目标图像和目标面部掩膜;2)构建人脸超分辨率网络,由相互协作的主、副两个分支组成;3)将低分辨率图像送入步骤2)中网络,得到高分辨率图像和副分支输出的面部掩膜;4)计算总损失,其包括掩膜像素损失、面部掩膜损失和感知特征损失;5)根据步骤4)中的总损失对网络参数进行优化和更新;6)验证步骤5)中的网络性能是否达标,若达标,则停止训练;若不达标,则重复步骤1)‑6)。本发明解决了现有的人脸超分辨率重建方法生成的人脸图像识别率低的问题。
-
公开(公告)号:CN113233305A
公开(公告)日:2021-08-10
申请号:CN202110381637.X
申请日:2021-04-09
Applicant: 华南理工大学 , 华南理工大学珠海现代产业创新研究院
Abstract: 本发明公开了一种自动扶梯侧面防夹安全装置及其安全检测方法,安全装置包括第一挡板、第二挡板、L型支撑平台、第一距离传感器、第二距离传感器和微处理器;所述第一挡板的一端与辅轮的轴心连接,其另一端与第二挡板垂直连接,该第一挡板与第二挡板能够跟随辅轮移动,所述L型支撑平台的长臂端与支撑件垂直连接,所述第一距离传感器安装在L型支撑平台的长臂端上,并位于第一挡板的下方,用于检测梯级的径向偏移距离,所述第二距离传感器安装在L型支撑平台的短臂端上,并位于第二挡板的一侧,用于检测梯级的轴向偏移距离;本发明能够同时检测梯级的轴向和径向的偏移距离,识别梯级的下陷和梯级左右偏移的情况,及时制动自动扶梯,保护乘客安全。
-
公开(公告)号:CN113076904A
公开(公告)日:2021-07-06
申请号:CN202110403803.1
申请日:2021-04-15
Applicant: 华南理工大学 , 华南理工大学珠海现代产业创新研究院
Abstract: 本发明公开了一种基于深度学习的室外停车场空余车位检测方法,通过位于停车场上方的高空摄像头采集图片,对PSPNet网络模型改进用于提取图像中的车位线,通过直线检测及轮廓提取,并结合相应的车位线填补方法获得图像中所有车位的位置,改进YOLOv3网络模型以检测图像中的所有车辆,并记录其位置,将车位与车辆进行匈牙利匹配,根据车位是否匹配成功以及匹配成功双方之间的距离判断该车位是否被占用,进而统计出图像中空余车位的数量。本发明可以准确判定室外停车场空余车位的数量和位置,且鲁棒性较强,方便车主寻找车位进行停车。
-
公开(公告)号:CN112800959A
公开(公告)日:2021-05-14
申请号:CN202110117852.9
申请日:2021-01-28
Applicant: 华南理工大学 , 华南理工大学珠海现代产业创新研究院
Abstract: 本发明公开了一种用于人脸识别中数据拟合估计的困难样本发掘方法,包括步骤:1)准备一个批次的人脸图像样本及其对应的标签,将其输入特征提取模型提取人脸特征;2)将提取到的人脸特征输入类中心权重层,其输出经过归一化处理,得到相似度矩阵;3)构建样本权重调制器,并通过该调制器对相似度矩阵进行重新赋予权重;4)将重新赋予权重的相似度矩阵输入损失层,计算该批次人脸图像样本的损失值;5)根据损失值对特征提取模型的参数进行更新,并进行模型性能验证,若达标,则终止训练;若不达标,则重复步骤1)至步骤5)。本发明在训练前期抑制困难样本,在训练后期强调困难样本,从而达到加速模型收敛和提升训练后期模型学习效率的目的。
-
公开(公告)号:CN112381004A
公开(公告)日:2021-02-19
申请号:CN202011282994.2
申请日:2020-11-17
Applicant: 华南理工大学 , 华南理工大学珠海现代产业创新研究院
Abstract: 本发明公开了一种基于骨架的双流自适应图卷积网络行为识别方法,包括步骤:1)视频图像采集;2)标注视频中人体的骨架信息和行为类别,构建训练集;3)构建自适应空间域图卷积单元Convs和自适应时间域图卷积单元Convt;4)利用自适应空间域图卷积单元Convs和自适应时间域图卷积单元Convt构建自适应图卷积模块;5)利用自适应图卷积模块构建自适应图卷积网络;6)利用自适应图卷积网络构建双流自适应图卷积网络;7)利用训练集训练双流自适应图卷积网络;8)利用训练得到的双流自适应图卷积网络对视频图像中的人体行为进行识别。通过本发明可有效提升人体行为种类识别的准确度,为各种计算机视觉处理应用打下了良好的基础。
-
公开(公告)号:CN111368825A
公开(公告)日:2020-07-03
申请号:CN202010114861.8
申请日:2020-02-25
Applicant: 华南理工大学 , 华南理工大学珠海现代产业创新研究院
Abstract: 本发明公开了一种基于语义分割的指针定位方法,包括步骤:1)指针式仪表数据的预处理与数据集的构建;2)针对识别对象及应用场景的特点,设计匹配的语义分割网络;3)对所设计的语义分割网络装载训练参数进行训练,训练完毕后得到指针分割模型;4)将待识别图像经预处理之后输入已训练的指针分割模型中,得到指针的像素级分割区域;5)通过图像处理技术对指针的像素级分割区域进行直线提取,并拟合出指针的位置方程以实现指针定位。本发明整个方法过程简单可靠,可以对各种复杂环境下的各种类型的指针进行精细分割。
-
公开(公告)号:CN111309015A
公开(公告)日:2020-06-19
申请号:CN202010114866.0
申请日:2020-02-25
Applicant: 华南理工大学 , 华南理工大学珠海现代产业创新研究院
IPC: G05D1/02
Abstract: 本发明公开了一种融合多传感器的变电站巡检机器人定位导航系统,该系统区分有定位模块、避障模块、地图管理模块、语音控制模块、电量监测模块、任务调度模块、导航模块、底层控制模块和安全保障模块九个功能模块,本发明对变电站巡检机器人首次同时引入了激光雷达里程计和视觉里程计算法,能够有效提高室外变电站巡检机器人的定位稳定性和精确性,同时对变电站巡检机器人引入了深度相机,可以方便的获取机器人前方较为低矮的障碍物或坑洞障碍,提高了机器人对于各种环境的兼容性和安全性,同时也使机器人在巡检任务中具备更强的自动导航和避障能力。
-
公开(公告)号:CN115171206B
公开(公告)日:2025-05-06
申请号:CN202210161226.4
申请日:2022-02-22
Applicant: 华南理工大学 , 华南理工大学珠海现代产业创新研究院
IPC: G06V40/20 , G06V10/40 , G06V10/774 , G06V10/80 , G06V10/82 , G06N3/042 , G06N3/0464 , G06N3/048 , G06N3/08 , G06N20/20
Abstract: 本发明公开了一种基于双流注意力图卷积的异常行为识别方法,针对人体的运动特点,在现有图卷积网络的基础上提出时间注意力模块、空间注意力模块、通道注意力模块,上述模块可以直接插入任何图卷积之中,以增强图卷积的模型性能,推理时,将人体的关节点信息和骨骼信息分别输入对应的关节点特征提取的图卷积网络及骨骼特征提取的图卷积网络,获得初步的分类结果,再将结果送入训练好的双流融合网络,计算出最优的融合参数,继而得到最终的分类结果。本发明可以提高图卷积网络模型的特征提取性能,并增强双流结果融合的效果,有效提高人体异常行为识别准确率。
-
-
-
-
-
-
-
-
-