-
公开(公告)号:CN118279786A
公开(公告)日:2024-07-02
申请号:CN202410229845.1
申请日:2024-02-29
Applicant: 北京科技大学
IPC: G06V20/40 , G06V10/62 , G06V10/82 , G06V40/20 , G06N3/0455 , G06N3/0464 , G06N3/08
Abstract: 本发明涉及计算机视觉技术领域,特别是指一种基于扩散模型的时序动作定位方法,方法包括:获取待处理的视频数据;将视频数据输入到时序特征提取器,得到视频数据的特征;将特征输入到构建好的多尺度的时序表征感知TRP编码器,得到视频特征的长期依赖时序特征信息;将长期依赖时序特征信息输入到训练好的扩散检测器模型,得到视频数据的时序动作定位结果。本发明设计了一种渐进且细化方法,使得精确的边界定位成为可行。并引入了一种时序建模方法,通过强化时序建模来捕捉特征的时序演变信息和长期依赖信息,从而进一步提升动作定位的准确性。
-
公开(公告)号:CN118279786B
公开(公告)日:2024-11-22
申请号:CN202410229845.1
申请日:2024-02-29
Applicant: 北京科技大学
IPC: G06V20/40 , G06V10/62 , G06V10/82 , G06V40/20 , G06N3/0455 , G06N3/0464 , G06N3/08
Abstract: 本发明涉及计算机视觉技术领域,特别是指一种基于扩散模型的时序动作定位方法,方法包括:获取待处理的视频数据;将视频数据输入到时序特征提取器,得到视频数据的特征;将特征输入到构建好的多尺度的时序表征感知TRP编码器,得到视频特征的长期依赖时序特征信息;将长期依赖时序特征信息输入到训练好的扩散检测器模型,得到视频数据的时序动作定位结果。本发明设计了一种渐进且细化方法,使得精确的边界定位成为可行。并引入了一种时序建模方法,通过强化时序建模来捕捉特征的时序演变信息和长期依赖信息,从而进一步提升动作定位的准确性。
-