-
公开(公告)号:CN115909377A
公开(公告)日:2023-04-04
申请号:CN202211392147.0
申请日:2022-11-08
Applicant: 南昌大学
IPC: G06V30/41 , G06V30/14 , G06V30/148 , G06V30/162 , G06V30/19 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明提供了一种基于轻量化空洞网络的高效率文档版面分析方法,包括两个阶段:分割阶段和分类阶段;步骤A:在分割阶段,通过Otsu算法和RLSA将一个文档页面分割成多个内容块;步骤B:在分类阶段,提出一种轻量级扩张网络LD‑Net,LD‑Net将所有区块分类为图像、表格、文本和公式;每个单独的块及其分类标签在OCR系统的下一个过程中被处理。本发明提出了一种用LD‑Net进行布局分析的内存效率方法,当在低内存设备上使用时,它在精度和内存占用方面优于现有方法;LD‑Net是根据深度可分离卷积和剩余连接设计的,这两种结构使得网络高效且轻巧;扩张卷积在LD‑Net中被采用,它可以节省空间信息,这对提高所提方法的准确性很重要。
-
公开(公告)号:CN110502995B
公开(公告)日:2023-03-14
申请号:CN201910658690.2
申请日:2019-07-19
Applicant: 南昌大学
Abstract: 本发明提供了基于细微面部动作识别的驾驶员打哈欠检测方法,包括以下步骤:步骤1,对车载摄像机捕捉到的驾驶员驾驶视频进行预处理,进行人脸检测和分割,图像大小归一化和去噪;步骤2,提出关键帧提取算法,通过图片直方图相似度阈值筛选以及离群相似度图片剔除相结合的方法,来提取细微动作序列中的关键帧;步骤3,根据选择的关键帧,建立具有低时间采样率的3D深度学习网络(3D‑LTS)以检测各种打哈欠行为,本发明通过关键帧提取算法提取细微动作的关键帧,然后通过建立的3D‑LTS网络,提取时空特征和检测各种面部细微动作;在识别率和整体性能方面优于现有方法,能有效区分打哈欠和其他面部细微动作,有效降低了驾驶员打哈欠行为的误检率。
-
公开(公告)号:CN115661769A
公开(公告)日:2023-01-31
申请号:CN202211391572.8
申请日:2022-11-08
Applicant: 南昌大学
IPC: G06V20/54 , G06V10/74 , G06V10/82 , G06V10/762 , G06V10/764 , G06V10/422 , G06V10/54 , G06V10/56
Abstract: 本发明提供了一种基于特征相似度度量和深度学习的车辆再识别方法,包括两个阶段:第一个阶段是基于半监督的跨域联合预训练,第二阶段则是预训练模型在目标域上的微调。本发明提出了一种新的特征相似性度量方法——重叠特征重排序(OFR),并设计了一种新的无监督车辆再识别框架。该框架采用一种有效的半监督域训练方式,称为半监督跨域联合学习(JCLS)。OFR将提取的特征进行交叉划分得到特征分区,并将所有特征分区的测量结果相加,作为进行更准确的聚类的基础。在JCLS中,摒弃了以往的单域训练,而是引入目标域风格的样本,共同训练Re‑ID模型。这种方法可以提取出更加具有代表性的特征参与相似性度量,提高识别率。
-
公开(公告)号:CN111445548B
公开(公告)日:2022-08-09
申请号:CN202010204022.5
申请日:2020-03-21
Applicant: 南昌大学
Abstract: 本发明提供了一种基于非配对图像的多视角人脸图像生成方法,包括以下步骤:步骤A:训练时,编码器E将输入的人脸图像映射为身份表示z和视角表示判别器Dz迫使z服从均匀分布,判别器Dv迫使服从范畴分布;步骤B:使用半监督学习,通过最小化真实视角标签v和对应预测的视角标签的交叉熵,使视角表示更加准确;步骤C:生成器G利用和z重建图像,重建图像与真实图像分别与连接后输入判别器Dimg进行相似性判断;步骤D:测试时,使用训练好的编码器解开身份表示和视角表示,将多个代表视角的one‑hot向量分别强加给身份表示,输入训练好的生成器生成多视角图像,本发明在使用极少量视角标签的情况下,生成了清晰真实的多视角人脸图像。
-
公开(公告)号:CN108647589B
公开(公告)日:2021-11-19
申请号:CN201810373967.2
申请日:2018-04-24
Applicant: 南昌大学
Abstract: 本发明公开了一种基于正则化形态比的摔倒检测方法,包括1)视频捕捉、2)前景检测、3)人体检测、4)运动跟踪、5)特征提取和6)摔倒检测的流程,在步骤6)摔倒检测的实现过程中:采用基于正则化的形态比算法来矫正行人在视频中的形态比;通过自动化标定和双三次曲线插值来得到摄像头的正则化形态比曲面;(3)将归一化的形态比与运动速度和方向相结合,更好地检测人体向八个方向的坠落;(4)采用平滑随时间变化的正则化的形状比变化曲线来消除手和腿来回摆动对正则化形态比的影响。该方法的优点是把正则化形态比与行人的运动速度和方向信息结合起来,能够检测行人向八个不同方向摔倒。
-
公开(公告)号:CN111445548A
公开(公告)日:2020-07-24
申请号:CN202010204022.5
申请日:2020-03-21
Applicant: 南昌大学
Abstract: 本发明提供了一种基于非配对图像的多视角人脸图像生成方法,包括以下步骤:步骤A:训练时,编码器E将输入的人脸图像映射为身份表示z和视角表示判别器Dz迫使z服从均匀分布,判别器Dv迫使服从范畴分布;步骤B:使用半监督学习,通过最小化真实视角标签v和对应预测的视角标签的交叉熵,使视角表示更加准确;步骤C:生成器G利用和z重建图像,重建图像与真实图像分别与连接后输入判别器Dimg进行相似性判断;步骤D:测试时,使用训练好的编码器解开身份表示和视角表示,将多个代表视角的one-hot向量分别强加给身份表示,输入训练好的生成器生成多视角图像,本发明在使用极少量视角标签的情况下,生成了清晰真实的多视角人脸图像。
-
公开(公告)号:CN110717424A
公开(公告)日:2020-01-21
申请号:CN201910918034.1
申请日:2019-09-26
Applicant: 南昌大学
IPC: G06K9/00
Abstract: 本发明主要涉及人工智能领域中目标检测问题。针对复杂环境下极小人脸问题,提出了一种级联式人脸检测方法,该方法主要由两个神经网络和一个预处理机制构成。首先通过使用第一个神经网络,即SSD先将行人置信框进行检测,然后将区域传入预处理机制,该机制通过置信框的长宽自动预测人脸的感兴趣区域,并将感兴趣区域进行图像金字塔处理,由于第二个网络的输入尺寸是固定的,因此该算法使得第二个人脸检测网络可以检测不同大小的人脸。本发明提出的方法能够准确有效地检测出许多复杂环境下的极小人脸,并可以潜在地使用和整合于公共安全检测和人脸识别等领域中。
-
公开(公告)号:CN110110602A
公开(公告)日:2019-08-09
申请号:CN201910282569.4
申请日:2019-04-09
Applicant: 南昌大学
Abstract: 本发明提供了一种基于三维残差神经网络和视频序列的动态手语识别方法,所述方法提出了基于三维残差神经网络的新模型B3D ResNet,包括以下步骤:步骤1,在视频帧中,采用Faster R-CNN模型检测手的位置,并从背景中分割出手;步骤2,利用B3D ResNet模型对输入的视频序列进行手势的时空特征提取和特征序列分析;步骤3,通过对输入的视频序列进行分类,可以识别手势,有效地实现动态手语识别。本发明通过分析视频序列的时空特征,可以提取有效的动态手势时空特征序列,从而达到识别不同手势的目的,并且在复杂或类似的手语识别上也获得了良好的性能。通过测试数据集的实验结果表明,本发明可以准确有效地区分不同的手语,以及相似的手势对。
-
公开(公告)号:CN109508715A
公开(公告)日:2019-03-22
申请号:CN201811281994.3
申请日:2018-10-30
Applicant: 南昌大学
Abstract: 本发明提供了一种基于深度学习的车牌定位和识别方法,包括两个方面:基于Faster R-CNN模型的车牌定位和基于AlexNet-L网络模型的端对端的车牌字符识别;步骤1,对训练集的车牌区域尺寸应用k-means++算法处理,选择最佳的候选尺寸,结合到Faster R-CNN;步骤2,利用Faster R-CNN训练图片,得到模型;步骤3,输入一张包含车牌的图片,经过卷积处理之后,得到特征图;步骤4,将获取的特征图经过RPN网络输出车牌位置和分数;步骤5,将车牌区域从原图中截取下来;步骤6,截取的车牌区域通过AlexNet-L网络模型的端对端的卷积神经网络,最终输出车牌上的各个字符,本发明采用基于Faster R-CNN的方法进行车牌定位,采用AlexNet-L的端对端的车牌字符识别方法,可以有效地提高对车牌定位和字符识别的准确率。
-
公开(公告)号:CN108171181A
公开(公告)日:2018-06-15
申请号:CN201711494618.8
申请日:2017-12-31
Applicant: 南昌大学
Abstract: 一种适用于家居内的人体摔倒检测方法,包括步骤:1)场景分析;2)对多特征进行提取:3)对行为进行分类。步骤1)是利用视频摄取装置拍摄视频图像,基于Faster R‑CNN算法,包括如下分步骤:1.1)生成候选框;1.2)基于Fast R‑CNN算法直接对全图进行卷积,获得特征图;1.3)将候选框的位置映射到特征图中,得到每个候选框所对应的特征。用新特征结合已有行为特征的多特征融合作为家居内摔倒检测的自动判定引擎,可以对日常行为进行有效的分类,且将Faster R‑CNN算法运用于场景分析进行家居内摔倒检测,对一些类摔倒行为和特殊摔倒行为的区分能力强,可以显著提高家居内的人体摔倒检测的准确率。
-
-
-
-
-
-
-
-
-