一种基于格拉斯曼流形分析的人体行为识别方法

    公开(公告)号:CN111507243A

    公开(公告)日:2020-08-07

    申请号:CN202010293342.2

    申请日:2020-04-15

    Abstract: 本发明公开了一种基于格拉斯曼流形分析的人体行为识别方法,包括获取数据集的所有训练样本映射到格拉斯曼流形空间;对类内样本点距离和类间样本点距离进行建模;重新定义数据集上的训练样本;建立组合学习模型;对组合学习模型进行迭代求解。以多种特征建模设计分类器模型。从已标注和未标注的行为视频中,基于自定义图模型,通过标签传播方法生成未标注视频的虚拟标签,并使用多流形分析揭示特征数据相关性。对于每种类型特征,既单独保留近邻数据点的局部结构一致性,又在训练集中使用多种特征数据点的全局一致性,来预测未标注样本的标签数据,在标注数据不足时,训练出一种人体行为视频的多分类器,从而提高人体行为识别的准确度。

    一种基于时空显著性区域检测的人体行为分析方法

    公开(公告)号:CN107563345A

    公开(公告)日:2018-01-09

    申请号:CN201710847985.5

    申请日:2017-09-19

    Abstract: 本发明公开一种基于时空显著性区域检测的人体行为分析方法,利用数据集训练Faster R-CNN模型;输入多路视频并将单路视频分割成视频图像帧;对分割的视频图像帧使用Faster R-CNN模型进行目标检测;分析目标检测结果并重新计算目标候选框;对单路视频使用块匹配构造运动矢量场;通过运动矢量场计算感兴趣区域的运动矢量,用混合高斯模型计算出的概率选定前景显著运动区域;根据目标候选框和显著运动区域合成时空显著性区域;对目标时空显著性区域进行特征采样和特征预处理;对视频的目标时空显著性区域进行编码和池化;对视频的时空显著性区域进行人体行为分析识别;将分析识别结果写入时空显著性区域框。本发明使可以合理分析视频中的人体行为活动的所属类别。

    一种基于时空显著性区域检测的人体行为分析方法

    公开(公告)号:CN107563345B

    公开(公告)日:2020-05-22

    申请号:CN201710847985.5

    申请日:2017-09-19

    Abstract: 本发明公开一种基于时空显著性区域检测的人体行为分析方法,利用数据集训练Faster R‑CNN模型;输入多路视频并将单路视频分割成视频图像帧;对分割的视频图像帧使用Faster R‑CNN模型进行目标检测;分析目标检测结果并重新计算目标候选框;对单路视频使用块匹配构造运动矢量场;通过运动矢量场计算感兴趣区域的运动矢量,用混合高斯模型计算出的概率选定前景显著运动区域;根据目标候选框和显著运动区域合成时空显著性区域;对目标时空显著性区域进行特征采样和特征预处理;对视频的目标时空显著性区域进行编码和池化;对视频的时空显著性区域进行人体行为分析识别;将分析识别结果写入时空显著性区域框。本发明使可以合理分析视频中的人体行为活动的所属类别。

    一种面向多路视频的人体行为事件实时分析方法

    公开(公告)号:CN107527045A

    公开(公告)日:2017-12-29

    申请号:CN201710851835.1

    申请日:2017-09-19

    Abstract: 本发明公开一种面向多路视频的人体行为事件实时分析方法,前端摄像机通过RTMP协议将采集到的视频内容推送到服务器端;服务器接收视频内容并将RTMP协议流媒体转换为HLS协议;服务器开启索引文件定时扫描线程,读取HLS协议中的M3U8索引文件,得到索引中指定的TS视频文件名,并将其加入作业队列;循环读取队列中的作业,每个作业在服务器端开启相应子线程,子线程并发地对每个作业的视频内容进行分析识别;将分析识别的结果写入原视频片段,最终展现到客户端,或将信息提交到其他预警系统中。本发明采用多路并发处理前端摄像机的视频流数据,后台服务器的多线程直接对前端多路摄像机做一对一的多路并发处理,从而实时响应多路视频的人体行为事件分析。

    一种基于格拉斯曼流形分析的人体行为识别方法

    公开(公告)号:CN111507243B

    公开(公告)日:2022-08-19

    申请号:CN202010293342.2

    申请日:2020-04-15

    Abstract: 本发明公开了一种基于格拉斯曼流形分析的人体行为识别方法,包括获取数据集的所有训练样本映射到格拉斯曼流形空间;对类内样本点距离和类间样本点距离进行建模;重新定义数据集上的训练样本;建立组合学习模型;对组合学习模型进行迭代求解。以多种特征建模设计分类器模型。从已标注和未标注的行为视频中,基于自定义图模型,通过标签传播方法生成未标注视频的虚拟标签,并使用多流形分析揭示特征数据相关性。对于每种类型特征,既单独保留近邻数据点的局部结构一致性,又在训练集中使用多种特征数据点的全局一致性,来预测未标注样本的标签数据,在标注数据不足时,训练出一种人体行为视频的多分类器,从而提高人体行为识别的准确度。

    一种基于多任务学习模型的人体行为分类方法

    公开(公告)号:CN111488840A

    公开(公告)日:2020-08-04

    申请号:CN202010293489.1

    申请日:2020-04-15

    Abstract: 本发明公开了一种基于多任务学习模型的人体行为分类方法,包括划分有标签数据和无标签数据;基于类内相似图模型和类间相似图模型建立多流形和标签一致性模型;基于图嵌入方法对多流形和分类器训练建立多任务学习模型;提取训练集特征并对特征进行降维;获取特征输入至多任务学习模型进行训练得到分类器结果。通过对视频中人物动作的数据分布和特征关联进行分析,结合多流形分析和多任务学习重新定义目标函数,挖掘出行为特征之间的内在联系;利用谱投影梯度方法和KKT条件求解多分类器目标函数的最优值;运用半监督学习算法,将已标注视频和未标注视频样本作为训练样本,同时放入分类器训练过程以提高分类器性能,从而提高了识别精度。

Patent Agency Ranking