-
公开(公告)号:CN115530788A
公开(公告)日:2022-12-30
申请号:CN202211133248.6
申请日:2022-09-17
Applicant: 贵州大学
IPC: A61B5/0245 , A61B5/024 , A61B5/00 , A61B5/349
Abstract: 本发明的一种基于自注意力机制的心律失常分类方法,其特征在于:该方法包括如下步骤:采集心电信号并对数据进行预处理:对心电信号数据进行小波变换预处理,去除心电信号的基线漂移以及噪声;生成心电信号训练数据集;构建多头自注意力机制的心律失常分类网络,其结构包括心电向量表示层、线性区间投影层、信号序列编码层、多头自注意力计算层、归一化层、心电信号输出层;设计基于多头自注意力机制的心律失常分类算法;训练基于多头自注意力机制的心律失常分类网络;对心电信号进行分类。本发明具有能够充分利用心电信号中的丰富的语义信息以及信号的局部相关性,获取低幅值心电信号特征以高效准确的自动识别异常心律的特点。
-
公开(公告)号:CN116645721A
公开(公告)日:2023-08-25
申请号:CN202310458735.8
申请日:2023-04-26
Applicant: 贵州大学
IPC: G06V40/20 , G06V10/774 , G06V10/46 , G06N3/0464 , G06N3/08 , G06V10/44
Abstract: 本发明的一种基于深度学习的坐姿识别方法及系统,其特征在于:该方法包括如下步骤:S1、采集视频数据,构建包含人体骨骼关键点时空序列数据和局部骨骼夹角时空序列数据的多维度特征的人体异常坐姿训练数据集;S2、将基于图卷积神经网络的人体异常坐姿多时空尺度特征提取模型和基于循环神经网络的人体异常坐姿局部骨骼夹角特征提取模型提取的特征进行融合,并结合人体异常坐姿训练数据集,进行训练,获得人体异常坐姿识别神经网络模型;S3、采用Faster‑RCNN目标检测模型、HRNet人体姿态估计模型、人体异常坐姿识别神经网络模型,预测异常坐姿种类。本发明具有不易丢失坐姿特征、人体异常坐姿识别准确性高的特点。
-
公开(公告)号:CN119399245A
公开(公告)日:2025-02-07
申请号:CN202411449638.3
申请日:2024-10-17
Applicant: 贵州大学
Abstract: 本发明公开了一种基于目标置信分层关联策略的多目标跟踪方法,包括:输入视频V,将视频V分割成单独的帧序列fk;得到帧fk中所有行人目标的集合D;利用基于检测框变化趋势的遮挡目标运动状态预测方法,预测现有轨迹在当前帧fk中的位置;根据所述的预测轨迹和目标的置信分层关联策略,将预测轨迹与检测目标进行关联;保存匹配成功的轨迹集合Tmatched,对于当前帧中每个匹配成功的轨迹tk,利用匹配到的目标在当前帧的观测值,更新得到更精确的运动状态Xk和变化速度Pk;将视频V中的所有帧序列进行处理,输出多目标识别跟踪。本发明具有能提高在拥挤的复杂动态场景中跟踪目标的准确性和鲁棒性的特点。
-
公开(公告)号:CN118097780A
公开(公告)日:2024-05-28
申请号:CN202410220562.0
申请日:2024-02-28
Applicant: 贵州大学
IPC: G06V40/20 , G06V10/764 , G06V10/82 , G06N3/042 , G06N3/0464 , G06N3/09 , G16H20/30
Abstract: 本发明公开了一种基于关键点检测的康复训练动作评估方法,该方法包括:动作分类、动作切分与动作评估;1)获取动作评估所需的动作标签;2)初始化该视频的检测框坐标集合与人体骨骼关键点信息集合;3)采用目标检测算法与关键点检测算法对输入的视频识别提取人体位置信息与骨骼关键点;4)将相关信息输入到基于图卷积神经网络的动作识别算法,得到当前视频对应的动作类别;5)采用基于关节距离比值的动作切分算法对视频图像检测后的信息进行处理,得到当前视频的动作切分结果;6)采用基于动作关节角度阈值的动作评估算法,得到当前视频的动作评估结果。本发明具有成本低、精度高,能够实现端到端的动作识别与评估的优点。
-
公开(公告)号:CN120070917A
公开(公告)日:2025-05-30
申请号:CN202510043342.X
申请日:2025-01-10
Applicant: 贵州大学
Abstract: 本发明公开了一种视图自适应多目标跟踪方法,包括:获得行人目标的检测集合Dk;利用基于深度关系线索的视图类别识别方法,该方法根据检测集合Dk中每个检测目标dk的坐标,计算其所对应的两种深度关系线索的边界框面积ak和伪深度pk,得到帧fk中的边界框面积集Ak和伪深度集Pk,再通过比较Ak与Pk的离散程度,得到帧fk所对应的视图类型v;根据所获取的深度关系线索和视图类型,根据提出的自适应视图的轨迹集与检测集划分方法,对预测轨迹与检测目标进行深度区间划分并完成级联关联;采用上述方法将视频V中的所有帧序列被处理完毕,进行多目标识别跟踪。本发明具有能实现多目标跟踪,且跟踪准确性高、鲁棒性强的特点。
-
公开(公告)号:CN116645721B
公开(公告)日:2024-03-15
申请号:CN202310458735.8
申请日:2023-04-26
Applicant: 贵州大学
IPC: G06V40/20 , G06V10/774 , G06V10/46 , G06N3/0464 , G06N3/08 , G06V10/44
Abstract: 本发明的一种基于深度学习的坐姿识别方法及系统,其特征在于:该方法包括如下步骤:S1、采集视频数据,构建包含人体骨骼关键点时空序列数据和局部骨骼夹角时空序列数据的多维度特征的人体异常坐姿训练数据集;S2、将基于图卷积神经网络的人体异常坐姿多时空尺度特征提取模型和基于循环神经网络的人体异常坐姿局部骨骼夹角特征提取模型提取的特征进行融合,并结合人体异常坐姿训练数据集,进行训练,获得人体异常坐姿识别神经网络模型;S3、采用Faster‑RCNN目标检测模型、HRNet人体姿态估计模型、人体异常坐姿识别神经网络模型,预测异常坐姿种类。本发明具有不易丢失坐姿特征、人体异常坐姿识别准确性高的特点。
-
公开(公告)号:CN116580334A
公开(公告)日:2023-08-11
申请号:CN202310400890.4
申请日:2023-04-14
Applicant: 贵州大学
IPC: G06V20/40 , G06V40/16 , G06V10/25 , G06V10/774 , G06V10/82
Abstract: 本发明的一种基于时空特征的行为检测方法,包括如下步骤:制作行为数据集:采集室内环境的非自杀性自伤行为视频数据,在采集的视频数据中对四类行为动作进行标注;加载模型及初始化模型参数:加载计算机视觉和机器学习软件库OpenCV,目标检测特征模型Md,行为检测特征模型Ma,人脸识别特征库Mf,非自杀性自伤行为类别集合L;基于室内活动时空特征的非自杀性自伤行为检测,包括非自杀性自伤行为NSSI特征提取、非自杀性自伤行为NSSI分类。基于时空特征的行为检测系统,包括视频采集、预处理模块、行为检测模块、可视化模块。本发明具有能通过视频数据自动检测非自杀性自残行为的特点。
-
公开(公告)号:CN116543908A
公开(公告)日:2023-08-04
申请号:CN202310686766.9
申请日:2023-06-12
Applicant: 贵州大学
Abstract: 本发明的一种基于时空双流网络的动作识别方法,包括如下步骤:确定动作类别;视频数据Dv采集;基于关键帧处理视频数据并构建动作类别数据集;构建时空双流网络Nst,空间特征提取模块Ms由9层三维卷积和5层三维池化以及一个全连接神经网络构成,时间特征提取模块由二维卷积分片单元和Transformer编码器以及全连接神经网络构成,将空间特征提取模块Ms获得的空间特征Fs与时间特征提取模块Mt获得的时间特征Ft融合,获得融合特征Ffusion;基于时空双流网络进行动作识别,将融合特征Ffusion输入至softmax分类器,获得动作类别概率分布Ap,输出动作类别Aresult。本发明具有能提高识别精度的特征。
-
公开(公告)号:CN119888338A
公开(公告)日:2025-04-25
申请号:CN202411961583.4
申请日:2024-12-30
Applicant: 贵州大学
IPC: G06V10/764 , G06V10/25 , G06V10/774 , G06V10/766 , G06V10/82 , G06N3/0499
Abstract: 本发明公开了基于实例空间关联的人物交互检测方法,包括:数据收集;构建实例内与实例间人物交互检测网络模型,包括特征提取部分、Transformer结构部分,所述Transformer结构部分:包括编码器、实例解码器、交互解码器,所述实例解码器为多层结构,每层包括一个多头自注意力模块、一个多尺度可变注意力模块、一个前馈神经网络、边界框回归;该实例解码器能解码多尺度编码特征,生成人和物的检测结果,并用于交互识别;将图像输入训练好的实例内与实例间人物交互检测网络模型,输出人和物的边界框、物的类别与交互类别,进行人物交互关系检测。本发明具有模型泛化性好,实例检测和交互分类准确性高的特点。
-
公开(公告)号:CN119811655A
公开(公告)日:2025-04-11
申请号:CN202411605915.5
申请日:2024-11-12
Applicant: 贵州大学
IPC: G16H50/30 , G16H50/70 , G06F18/213 , G06F18/214 , G06F18/2431 , G06F18/25 , G06N3/0455
Abstract: 本发明公开了一种基于神经网络模型的可预见性行为识别方法,包括:收集可预见性行为数据集;行为识别模型构建,基于神经网络模型VideoMAE进行改进,包括编码器、解码器、掩码策略,其中所述编码器包括输入数据预处理、改进的特征提取,所述改进的特征提取,将原来的时空联合自注意力机制改为多头自注意力特征提取模块#imgabs0##imgabs1#和局部卷积注意力特征提取模块#imgabs2#共同实现特征提取,然后通过线性加权融合得到最终的行为特征F;训练行为识别模型;应用训练好的行为识别模型,进行可预见性行为识别。本发明具有识别准确率高、实时性好、鲁棒性强的特点。
-
-
-
-
-
-
-
-
-