一种面向监控环境的实时行人解析方法

    公开(公告)号:CN110427920B

    公开(公告)日:2021-11-02

    申请号:CN201910768586.9

    申请日:2019-08-20

    Applicant: 武汉大学

    Abstract: 本发明属于计算机视觉与图像处理技术领域,公开了一种面向监控环境的实时行人解析方法,包括:获取实时视频流,将视频流进行转化,得到原始视频帧序列;使用目标检测算法对原始视频帧序列进行检测,获得检测框信息;使用行人解析模型对原始行人图像进行解析处理,解析处理中引入部件缺失行人多尺度数据增强和行人部件类别约束进行优化,得到解析结果,将解析结果填补回原始视频帧序列,得到解析后的视频帧序列;将解析后的视频帧序列转化为视频。本发明解决了现有技术中行人解析的速度较慢、精度较低的问题,能有效地提升行人解析的准确率。

    一种面向监控环境的实时行人解析方法

    公开(公告)号:CN110427920A

    公开(公告)日:2019-11-08

    申请号:CN201910768586.9

    申请日:2019-08-20

    Applicant: 武汉大学

    Abstract: 本发明属于计算机视觉与图像处理技术领域,公开了一种面向监控环境的实时行人解析方法,包括:获取实时视频流,将视频流进行转化,得到原始视频帧序列;使用目标检测算法对原始视频帧序列进行检测,获得检测框信息;使用行人解析模型对原始行人图像进行解析处理,解析处理中引入部件缺失行人多尺度数据增强和行人部件类别约束进行优化,得到解析结果,将解析结果填补回原始视频帧序列,得到解析后的视频帧序列;将解析后的视频帧序列转化为视频。本发明解决了现有技术中行人解析的速度较慢、精度较低的问题,能有效地提升行人解析的准确率。

    一种基于强化学习的视频序列二维姿态估计方法

    公开(公告)号:CN113205043B

    公开(公告)日:2022-06-07

    申请号:CN202110480110.2

    申请日:2021-04-30

    Applicant: 武汉大学

    Abstract: 本发明提供了一种基于强化学习的视频序列二维姿态估计方法,首先构建强化学习智能体的整体状态,然后输出动作,从当前视频序列中选择一个标注帧和一个未标注帧,两帧通过姿态估计器得到姿态,并被一起送入动作转换器完成动作转换并更新姿态估计器和动作转换器,最后根据姿态估计器的提升算出智能体的回报,并更新优化智能体。本发明利用强化学习和主动学习的思想,通过充分挖掘视频中的时序信息选出最有信息量的视频帧对,从而可以很好地抵御人体自遮挡,运动模糊等问题,可提高视频姿态估计方法的准确性和鲁棒性。本发明不同于常见的监督学习方案,仅使用少量的视频标注帧来完成姿态估计器的学习,较为明显地降低了人工标注量,从而实用性更高。

    一种基于强化学习的视频序列二维姿态估计方法

    公开(公告)号:CN113205043A

    公开(公告)日:2021-08-03

    申请号:CN202110480110.2

    申请日:2021-04-30

    Applicant: 武汉大学

    Abstract: 本发明提供了一种基于强化学习的视频序列二维姿态估计方法,首先构建强化学习智能体的整体状态,然后输出动作,从当前视频序列中选择一个标注帧和一个未标注帧,两帧通过姿态估计器得到姿态,并被一起送入动作转换器完成动作转换并更新姿态估计器和动作转换器,最后根据姿态估计器的提升算出智能体的回报,并更新优化智能体。本发明利用强化学习和主动学习的思想,通过充分挖掘视频中的时序信息选出最有信息量的视频帧对,从而可以很好地抵御人体自遮挡,运动模糊等问题,可提高视频姿态估计方法的准确性和鲁棒性。本发明不同于常见的监督学习方案,仅使用少量的视频标注帧来完成姿态估计器的学习,较为明显地降低了人工标注量,从而实用性更高。

Patent Agency Ranking