一种基于混合注意力与特征增强的文本检测方法

    公开(公告)号:CN117079260A

    公开(公告)日:2023-11-17

    申请号:CN202311057677.4

    申请日:2023-08-22

    Applicant: 南昌大学

    Abstract: 本发明提供了一种基于混合注意力与特征增强的文本检测方法,S1,采集自然场景下的文本图像并对图像进行预处理;S2,将特征送入到FPN中进入特征提取,首先特征经过卷积核为1×1的卷积操作后,各层特征均变成通道数为256维的特征;后续特征会自顶向下的顺序进入到混合注意力融合模块MAF模块操作,在MAF模块中高层的语义信息作用于底层特征,融合多个特征的上下文信息;S3,输出的多个特征图进行拼接操作后,自适应特征增强模块AFE模块使网络的注意权重在空间维度上更加灵活,捕捉到特征信息。本发明在网络中提出混合注意力融合模块和自适应特征增强模块可以减少背景噪声对文本检测的干扰和提升对小尺度文本的检测能力。

    基于新型神经辐射场卷积的大规模点云语义分割方法

    公开(公告)号:CN117058379A

    公开(公告)日:2023-11-14

    申请号:CN202311021945.7

    申请日:2023-08-15

    Applicant: 南昌大学

    Abstract: 本发明公开了基于新型神经辐射场卷积的大规模点云语义分割方法,涉及语义分割技术领域,所述分割方法包括以下步骤:将点云场景表示为#imgabs0#其中N是输入点云的数量,3表示点的X,Y,Z坐标,D表示输入特征的维度;初始特征包含颜色信息;质心使用半径法或KNN算法过滤质心K邻域,以确定质心局部邻域;质心每个相邻点携带坐标和语义特征信息fij。本发明提出了一种新的局部点云表示方法,称为神经辐射场七维,其中首创的局部点云和方向角满足绕XYZ轴的旋转而不变形,并且可以更接近点云数据来学习点云旋转变形。

    一种基于GhostNetV2的轻量化人脸与人脸关键点检测方法

    公开(公告)号:CN116416672A

    公开(公告)日:2023-07-11

    申请号:CN202310685922.X

    申请日:2023-06-12

    Applicant: 南昌大学

    Abstract: 本发明公开了一种基于GhostNetV2的轻量化人脸与人脸关键点检测方法,使用GhostNetV2作为主干特征提取网络的人脸检测模型,并且为了提高对小人脸的检测,使用了由特征融合模块加权双向特征金字塔网络改进而来的分离的特征金字塔网络,为了提高对较大人脸的检测效果,在模型的检测头部分使用了级联上下文预测模块来增大感受野,并加入人脸关键点损失。最后针对WIDER FACE数据集进行分析,制定了合适的锚点分配策略。模型的总参数量为1.6M,在简单,中等,困难子集上的准确率分别达到93.13%,92.39%,84.11%,在CPU上对VAG图像进行推理,仅需要37.7ms。

    基于Kinect深度图像的人体摔倒检测方法及装置

    公开(公告)号:CN107194967B

    公开(公告)日:2021-04-06

    申请号:CN201710433311.0

    申请日:2017-06-09

    Applicant: 南昌大学

    Inventor: 姚磊岳 闵卫东

    Abstract: 一种基于Kinect深度图像的人体摔倒检测方法和装置,该方法包括:分析Kinect摄像头拍摄的视频的每一帧深度图像,确定当前深度图像中的人体的骨骼中心点、肩关节中心点和腰部中心点;计算所述当前深度图像中的所述人体的上身躯干中心线与重力线构成的夹角的角度,以得到所述人体的当前重力角的角度,所述上身躯干中心线为所述人体的骨骼中心点和肩关节中心点的连线;当所述当前重力角的角度大于阈值角度时,在预设时间段内,计算每一时间点的所述重力角的变化率和质心高度的变化率,所述质心高度为所述腰部中心点与参考面或参考点的距离;当任意一时间点的所述重力角的变化率大于第一预设值,且所述质心高度的变化率大于第二预设值时确定所述人体摔倒。

    基于细微面部动作识别的驾驶员打哈欠检测方法

    公开(公告)号:CN110502995A

    公开(公告)日:2019-11-26

    申请号:CN201910658690.2

    申请日:2019-07-19

    Applicant: 南昌大学

    Abstract: 本发明提供了基于细微面部动作识别的驾驶员打哈欠检测方法,包括以下步骤:步骤1,对车载摄像机捕捉到的驾驶员驾驶视频进行预处理,进行人脸检测和分割,图像大小归一化和去噪;步骤2,提出关键帧提取算法,通过图片直方图相似度阈值筛选以及离群相似度图片剔除相结合的方法,来提取细微动作序列中的关键帧;步骤3,根据选择的关键帧,建立具有低时间采样率的3D深度学习网络(3D-LTS)以检测各种打哈欠行为,本发明通过关键帧提取算法提取细微动作的关键帧,然后通过建立的3D-LTS网络,提取时空特征和检测各种面部细微动作;在识别率和整体性能方面优于现有方法,能有效区分打哈欠和其他面部细微动作,有效降低了驾驶员打哈欠行为的误检率。

    一种基于正则化形态比的摔倒检测方法

    公开(公告)号:CN108647589A

    公开(公告)日:2018-10-12

    申请号:CN201810373967.2

    申请日:2018-04-24

    Applicant: 南昌大学

    Inventor: 闵卫东 邹松 韩清

    Abstract: 本发明公开了一种基于正则化形态比的摔倒检测方法,包括1)视频捕捉、2)前景检测、3)人体检测、4)运动跟踪、5)特征提取和6)摔倒检测的流程,在步骤6)摔倒检测的实现过程中:采用基于正则化的形态比算法来矫正行人在视频中的形态比;通过自动化标定和双三次曲线插值来得到摄像头的正则化形态比曲面;(3)将归一化的形态比与运动速度和方向相结合,更好地检测人体向八个方向的坠落;(4)采用平滑随时间变化的正则化的形状比变化曲线来消除手和腿来回摆动对正则化形态比的影响。该方法的优点是把正则化形态比与行人的运动速度和方向信息结合起来,能够检测行人向八个不同方向摔倒。

    一种3D人体姿态估计方法、系统、电子设备及存储介质

    公开(公告)号:CN120014713A

    公开(公告)日:2025-05-16

    申请号:CN202510488584.X

    申请日:2025-04-18

    Applicant: 南昌大学

    Abstract: 本申请属于计算机视觉领域,公开了一种3D人体姿态估计方法、系统、电子设备及存储介质,该方法包括:获取2D关键点序列,通过姿态空间嵌入生成每帧高维特征,并施加随机掩码和位置编码形成稀疏时序Token序列;利用基于Transformer的姿态时序交互模块提取全局时序特征;同时对当前帧及其邻域帧采用关节级空间嵌入、空间交互模块和分层卷积捕获局部时序细节,获得局部特征;通过自适应融合策略综合全局与局部特征后,输入姿态优化网络(2D姿态、全局3D姿态和中心帧3D姿态的对比学习模块)生成3D人体姿态,再计算总体损失和利用稀疏–密集训练策略进行优化,最终输出3D人体姿态。该方法能够显著提高3D姿态估计的精度。

    三维场景风格迁移方法、电子设备和存储介质

    公开(公告)号:CN119991910A

    公开(公告)日:2025-05-13

    申请号:CN202510449978.4

    申请日:2025-04-11

    Applicant: 南昌大学

    Abstract: 本发明涉及计算机视觉和机器学习技术领域,具体涉及三维场景风格迁移方法、电子设备和存储介质。在本发明中,通过以下步骤训练风格迁移模型:提取三维场景图和风格图像中多维度的特征信息,得到场景全局特征、场景局部特征、风格全局特征和风格局部特征;分别计算场景全局特征和风格全局特征之间的欧氏距离、场景局部特征和风格局部特征之间的欧氏距离,并最小化欧氏距离;通过解码操作得到目标场景图,并将风格图像和目标场景图进行颜色迁移操作;根据总损失函数更新风格迁移模型的参数。利用训练好的风格迁移模型进行风格迁移,丰富了局部风格细节,实现了颜色匹配的高度一致性和准确性。

    一种基于改进YOLOv8n的交通目标检测方法及系统

    公开(公告)号:CN118552929B

    公开(公告)日:2024-11-26

    申请号:CN202411021431.6

    申请日:2024-07-29

    Applicant: 南昌大学

    Abstract: 本发明公开了一种基于改进YOLOv8n的交通目标检测方法及系统,涉及自动驾驶和辅助驾驶技术领域,该方法包括:获取初始驾驶视频图像,划分为训练图像和待测图像;对现有的YOLOv8n模型进行改进以得到改进YOLOv8n模型,改进包括:将YOLOv8n模型中的C2f替换为StarDR_C2f,将YOLOv8n模型中的SPPF替换为具有大核条带卷积的SPPF‑LSKA,将YOLOv8n模型中的分类头进行轻量化处理,在YOLOv8n模型中加入轻量化下采样SCDown,在YOLOv8n模型中加入部分自注意力PSA;使用训练图像对改进YOLOv8n模型进行迭代优化训练,得到改进YOLOv8n的交通目标检测模型;将待测图像输入改进YOLOv8n的交通目标检测模型进行检测,输出交通目标检测结果。该方法能够提高自动驾驶和辅助驾驶技术领域中交通目标检测的准确率和效率。

    一种基于改进YOLOv8n的交通目标检测方法及系统

    公开(公告)号:CN118552929A

    公开(公告)日:2024-08-27

    申请号:CN202411021431.6

    申请日:2024-07-29

    Applicant: 南昌大学

    Abstract: 本发明公开了一种基于改进YOLOv8n的交通目标检测方法及系统,涉及自动驾驶和辅助驾驶技术领域,该方法包括:获取初始驾驶视频图像,划分为训练图像和待测图像;对现有的YOLOv8n模型进行改进以得到改进YOLOv8n模型,改进包括:将YOLOv8n模型中的C2f替换为StarDR_C2f,将YOLOv8n模型中的SPPF替换为具有大核条带卷积的SPPF‑LSKA,将YOLOv8n模型中的分类头进行轻量化处理,在YOLOv8n模型中加入轻量化下采样SCDown,在YOLOv8n模型中加入部分自注意力PSA;使用训练图像对改进YOLOv8n模型进行迭代优化训练,得到改进YOLOv8n的交通目标检测模型;将待测图像输入改进YOLOv8n的交通目标检测模型进行检测,输出交通目标检测结果。该方法能够提高自动驾驶和辅助驾驶技术领域中交通目标检测的准确率和效率。

Patent Agency Ranking