-
公开(公告)号:CN112836541B
公开(公告)日:2022-06-03
申请号:CN202110146908.3
申请日:2021-02-03
Applicant: 华中师范大学
Abstract: 本发明公开了一种香烟32位条码的自动采集及识别方法及装置,该方法包括以下步骤:步骤1、通过图像扫描设备的扫描界面显示定位网格,对待拍摄的香烟条码进行定位;步骤2、当进入定位网格位置时,拍摄香烟条码图像;步骤3、采用融合激光字符图像的颜色特征以及激光字符的笔画宽度特征的处理方法,对香烟条码图像进行二值化处理;步骤4、采用字符固定宽度信息和垂直投影字符切割方法,提取每个定位网格中的字符;步骤5、采用光学字符识别算法,对提取出来的字符进行自动识别;步骤6、将识别出的香烟条码字符与数据库中存储的字符代表信息记录进行比对识别,识别出香烟条码字符所代表的香烟信息。本发明能够大大提高香烟条码识别的精度和效率。
-
公开(公告)号:CN108764096B
公开(公告)日:2022-04-29
申请号:CN201810489200.6
申请日:2018-05-21
Applicant: 华中师范大学
IPC: G06V40/10 , G06V10/764 , G06K9/62 , G06N3/04 , G06N3/08
Abstract: 本发明公开行人重识别系统,包括第一特征训练模块、第二特征训练模块、局部划分训练模块和识别模块;第一特征训练模块采用多尺度局部特征竞争选择技术构造新的分类器Cw;第一特征训练模块包括数据预处理单元、主干网络设置单元、特征分组单元、特征池化单元、特征降维单元、特征分类单元和新分类器构造单元;第二特征训练模块获取整个神经网络的最优参数;局部划分训练模块将数据通过加载的ResNet主干网络、特征分组单元、特征池化单元和特征降维单元对多个局部特征进行标记;识别模块将数据通过加载的ResNet主干网络、特征分组单元、特征池化单元和特征降维单元提取到的特征经过局部划分分类器Ck进行分类。
-
公开(公告)号:CN113837258A
公开(公告)日:2021-12-24
申请号:CN202111091146.8
申请日:2021-09-17
Applicant: 华中师范大学
Abstract: 本发明提供一种基于局部相关熵矩阵的高光谱图像分类方法和系统,首先,对高光谱图像数据进行降维处理,去除噪声并减小计算量,然后通过边界复制的方式对降维后的图像进行边界填充处理;其次,针对图像中的每一个像素,构建局部相关熵矩阵,抽取高光谱图像的局部特征;最后,将获得的局部相关熵矩阵作为特征输入到支持向量机中进行分类,得到每个像素的类别标签。本发明构建的局部相关熵矩阵充分利用了高光谱数据的“空谱合一”特性;利用本发明的方法,可以获取非线性的空谱特征;由于本发明属于手工设计特征方法,因此不需要大量的训练样本学习特征,具有较小的样本复杂度,更适合实际应用。
-
公开(公告)号:CN113688789A
公开(公告)日:2021-11-23
申请号:CN202111091047.X
申请日:2021-09-17
Applicant: 华中师范大学
Abstract: 本发明设计了一种基于深度学习的在线学习投入度识别方法及系统,首先为了保证图像不受无关背景的影响,本发明通过YOLOv4进行学生人脸检测;其次针对VGG16网络参数量庞大、训练耗时等问题,提出了一种改进的VGG16模型,同时,在模型训练过程中,采用深度确定性信息瓶颈方法DIB弥补传统损失函数的不足,以获取较为紧致的特征表达,减少泛化误差,改善模型的通用性和稳定性,实现复杂在线学习场景下的学习投入度精准识别;最后通过与传统机器学习和其它深度学习等多种方法比较和分析,验证了本发明方法的有效性。
-
公开(公告)号:CN112836541A
公开(公告)日:2021-05-25
申请号:CN202110146908.3
申请日:2021-02-03
Applicant: 华中师范大学
Abstract: 本发明公开了一种香烟32位条码的自动采集及识别方法及装置,该方法包括以下步骤:步骤1、通过图像扫描设备的扫描界面显示定位网格,对待拍摄的香烟条码进行定位;步骤2、当进入定位网格位置时,拍摄香烟条码图像;步骤3、采用融合激光字符图像的颜色特征以及激光字符的笔划宽度特征的处理方法,对香烟条码图像进行二值化处理;步骤4、采用字符固定宽度信息和垂直投影字符切割方法,提取每个定位网格中的字符;步骤5、采用光学字符识别算法,对提取出来的字符进行自动识别;步骤6、将识别出的香烟条码字符与数据库中存储的字符代表信息记录进行比对识别,识别出香烟条码字符所代表的香烟信息。本发明能够大大提高香烟条码识别的精度和效率。
-
公开(公告)号:CN108764096A
公开(公告)日:2018-11-06
申请号:CN201810489200.6
申请日:2018-05-21
Applicant: 华中师范大学
CPC classification number: G06K9/00362 , G06K9/6268 , G06N3/0454 , G06N3/084
Abstract: 本发明公开行人重识别系统,包括第一特征训练模块、第二特征训练模块、局部划分训练模块和识别模块;第一特征训练模块采用多尺度局部特征竞争选择技术构造新的分类器Cw;第一特征训练模块包括数据预处理单元、主干网络设置单元、特征分组单元、特征池化单元、特征降维单元、特征分类单元和新分类器构造单元;第二特征训练模块获取整个神经网络的最优参数;局部划分训练模块将数据通过加载的ResNet主干网络、特征分组单元、特征池化单元和特征降维单元对多个局部特征进行标记;识别模块将数据通过加载的ResNet主干网络、特征分组单元、特征池化单元和特征降维单元提取到的特征经过局部划分分类器Ck进行分类。
-
公开(公告)号:CN113688789B
公开(公告)日:2023-11-10
申请号:CN202111091047.X
申请日:2021-09-17
Applicant: 华中师范大学
Abstract: 本发明设计了一种基于深度学习的在线学习投入度识别方法及系统,首先为了保证图像不受无关背景的影响,本发明通过YOLOv4进行学生人脸检测;其次针对VGG16网络参数量庞大、训练耗时等问题,提出了一种改进的VGG16模型,同时,在模型训练过程中,采用深度确定性信息瓶颈方法DIB弥补传统损失函数的不足,以获取较为紧致的特征表达,减少泛化误差,改善模型的通用性和稳定性,实现复杂在线学习场景下的学习投入度精准识别;最后通过与传统机器学习和其它深度学习等多种方法比较和分析,验证了本发明方法的有效性。
-
公开(公告)号:CN113837258B
公开(公告)日:2023-09-08
申请号:CN202111091146.8
申请日:2021-09-17
Applicant: 华中师范大学
IPC: G06V10/764 , G06V10/774 , G06V10/77 , G06V10/58 , G06V20/13 , G06V20/10
Abstract: 本发明提供一种基于局部相关熵矩阵的高光谱图像分类方法和系统,首先,对高光谱图像数据进行降维处理,去除噪声并减小计算量,然后通过边界复制的方式对降维后的图像进行边界填充处理;其次,针对图像中的每一个像素,构建局部相关熵矩阵,抽取高光谱图像的局部特征;最后,将获得的局部相关熵矩阵作为特征输入到支持向量机中进行分类,得到每个像素的类别标签。本发明构建的局部相关熵矩阵充分利用了高光谱数据的“空谱合一”特性;利用本发明的方法,可以获取非线性的空谱特征;由于本发明属于手工设计特征方法,因此不需要大量的训练样本学习特征,具有较小的样本复杂度,更适合实际应用。
-
公开(公告)号:CN110534101A
公开(公告)日:2019-12-03
申请号:CN201910797827.2
申请日:2019-08-27
Applicant: 华中师范大学
Abstract: 本发明属于语音取证技术领域,公开了一种基于多模融合深度特征的移动设备源识别方法及系统,首先提取测试数据MFCCs和GSV特征,将特征对应分割为多路,然后分别训练CNN并融合得到融合深度特征,随后使用训练好的深度残差网络进行判决,最后将各路短样本的判决结果采用投票法联合决策。本发明在训练GMM-UBM模型时,根据语音数据音素和音调的特点对数据进行筛选,挑选出具有代表性的少量数据,即保证了模型的表征泛化性也降低了数据运算量,提高了建模了效率;本发明使用深度神经网络做有监督的训练提取深度特征,剔除特征数据中的冗余和干扰信息,精简了特征数据,提高了数据的表征性,也降低了数据的维度简化了计算量。
-
公开(公告)号:CN109378014A
公开(公告)日:2019-02-22
申请号:CN201811229837.8
申请日:2018-10-22
Applicant: 华中师范大学
Abstract: 本发明属于语音取证技术领域,公开了一种基于卷积神经网络的移动设备源识别方法及系统,先提取训练语音片段的MFCC特征训练一个GMM-UBM模型,然后再基于特定的带噪声的语音片段提取MFCC特征,进而调整GMM的参数,最后将提取到的特征用来训练卷积神经网络,达到自动识别分类的要求。本发明在训练GMM-UBM模型时,根据语音数据音素和音调的特点对数据进行筛选,挑选出具有代表性的少量数据,即保证了模型的表征泛化性也降低了数据运算量,提高了建模了效率;首先训练一个GMM-UBM模型,然后再用MAP自适应算法来调整GMM的参数,克服了样本量少,无法训练GMM模型的问题,同时加快了运算速度。
-
-
-
-
-
-
-
-
-