基于行为学习的多目标跟踪方法及系统

    公开(公告)号:CN105957105A

    公开(公告)日:2016-09-21

    申请号:CN201610258466.0

    申请日:2016-04-22

    IPC分类号: G06T7/20

    摘要: 本发明提出一种基于行为学习的多目标跟踪方法及系统,该方法包括:获取目标视频序列,对目标视频序列进行检测,并根据检测结果获得跟踪目标候选框的大小及位置信息;对多目标实时跟踪问题进行建模,并建立多目标实时跟踪问题的产生式概率模型;针对产生式概率模型中的全局条件概率项,在已进行正确标注的训练集上进行离线训练,进行普适于各种场景的全局行为预测,针对产生式概率模型中的局部条件概率项利用每个目标在当前帧之前的跟踪数据,实时在线训练适用于该目标的局部行为预测;结合全局行为预测及局部行为预测得到目标的行为预测,并根据预测的目标行为进行多目标跟踪。本发明在多目标跟踪时能保持跟踪率,同时能明显的减少跟踪错误率。

    基于行为学习的多目标跟踪方法及系统

    公开(公告)号:CN105957105B

    公开(公告)日:2018-10-02

    申请号:CN201610258466.0

    申请日:2016-04-22

    IPC分类号: G06T7/246

    摘要: 本发明提出一种基于行为学习的多目标跟踪方法及系统,该方法包括:获取目标视频序列,对目标视频序列进行检测,并根据检测结果获得跟踪目标候选框的大小及位置信息;对多目标实时跟踪问题进行建模,并建立多目标实时跟踪问题的产生式概率模型;针对产生式概率模型中的全局条件概率项,在已进行正确标注的训练集上进行离线训练,进行普适于各种场景的全局行为预测,针对产生式概率模型中的局部条件概率项利用每个目标在当前帧之前的跟踪数据,实时在线训练适用于该目标的局部行为预测;结合全局行为预测及局部行为预测得到目标的行为预测,并根据预测的目标行为进行多目标跟踪。本发明在多目标跟踪时能保持跟踪率,同时能明显的减少跟踪错误率。

    基于滑窗优化的多目标跟踪方法

    公开(公告)号:CN106022238A

    公开(公告)日:2016-10-12

    申请号:CN201610317575.5

    申请日:2016-05-12

    IPC分类号: G06K9/00

    CPC分类号: G06K9/00758

    摘要: 本发明提出一种基于滑窗优化的多目标跟踪方法,包括以下步骤:获取目标视频序列,检测目标视频序列,并根据检测结果对各个目标的状态信息进行初始化;计算当前帧中所有目标的状态信息与已存在的目标的状态信息的相似度,并根据相似度判断当前帧中各目标的状态,其中,当前帧中各目标的状态包括明确状态和模糊状态;建立近似‑缩减框架将当前帧中的明确状态与已存在的目标的状态进行最优连接,以得到跟踪结果。本发明能够在提高跟踪的准确率的同时,保证跟踪的实时性,从而满足了更多应用的需求。

    深度图编码方法及装置
    4.
    发明公开

    公开(公告)号:CN102790892A

    公开(公告)日:2012-11-21

    申请号:CN201210232212.3

    申请日:2012-07-05

    IPC分类号: H04N13/00 H04N7/26

    摘要: 本发明提出一种深度图编码方法及装置,该方法包括:建立多个划分线并组成划分集合,多个划分线用于对深度宏块进行楔形划分;以帧内编码模式对深度宏块进行编码得到第一率失真代价值;判断是否以帧间编码模式对深度宏块进行编码,如果是则以帧间编码模式进行编码得到第二率失真代价值;继续判断深度宏块是否包含不连续的运动向量场,如果是则以几何划分编码模式对深度宏块进行编码,包括:选择最优划分线对深度宏块进行划分得到第一和第二深度子区域,对两个子区域进行预测编码获取第三率失真代价值;比较不同编码模式下的率失真代价值以选择率失真代价最小的编码模式对进行编码。本发明的实施例提高深度图压缩效率、降低编码复杂度。

    深度图编码方法及装置
    5.
    发明授权

    公开(公告)号:CN102790892B

    公开(公告)日:2014-06-11

    申请号:CN201210232212.3

    申请日:2012-07-05

    IPC分类号: H04N13/00 H04N19/103

    摘要: 本发明提出一种深度图编码方法及装置,该方法包括:建立多个划分线并组成划分集合,多个划分线用于对深度宏块进行楔形划分;以帧内编码模式对深度宏块进行编码得到第一率失真代价值;判断是否以帧间编码模式对深度宏块进行编码,如果是则以帧间编码模式进行编码得到第二率失真代价值;继续判断深度宏块是否包含不连续的运动向量场,如果是则以几何划分编码模式对深度宏块进行编码,包括:选择最优划分线对深度宏块进行划分得到第一和第二深度子区域,对两个子区域进行预测编码获取第三率失真代价值;比较不同编码模式下的率失真代价值以选择率失真代价最小的编码模式对进行编码。本发明的实施例提高深度图压缩效率、降低编码复杂度。

    基于滑窗优化的多目标跟踪方法

    公开(公告)号:CN106022238B

    公开(公告)日:2019-05-28

    申请号:CN201610317575.5

    申请日:2016-05-12

    IPC分类号: G06K9/00

    摘要: 本发明提出一种基于滑窗优化的多目标跟踪方法,包括以下步骤:获取目标视频序列,检测目标视频序列,并根据检测结果对各个目标的状态信息进行初始化;计算当前帧中所有目标的状态信息与已存在的目标的状态信息的相似度,并根据相似度判断当前帧中各目标的状态,其中,当前帧中各目标的状态包括明确状态和模糊状态;建立近似‑缩减框架将当前帧中的明确状态与已存在的目标的状态进行最优连接,以得到跟踪结果。本发明能够在提高跟踪的准确率的同时,保证跟踪的实时性,从而满足了更多应用的需求。

    基于对抗性显式任务分布生成的鲁棒适应方法及装置

    公开(公告)号:CN118940805A

    公开(公告)日:2024-11-12

    申请号:CN202410953379.1

    申请日:2024-07-16

    申请人: 清华大学

    摘要: 本申请涉及计算机技术领域,特别涉及一种基于对抗性显式任务分布生成的鲁棒适应方法及装置,其中,方法包括:利用预设生成模型参数化元学习器和分布对手,得到参数化的元学习器和参数化的分布对手;分别对参数化的元学习器和参数化的分布对手进行目标梯度更新处理,并利用梯度更新结果确定参数化的元学习器和参数化的分布对手均满足预设均衡条件的目标均衡解,使得基于对抗性显式任务分布生成的目标模型满足预设适应条件。由此,解决了相关技术中采用人工设计或简单的先验任务分布,导致在任务空间中发生分布偏移时,得到的人工设计或简单的任务采样器会在实际场景中遭受灾难性故障,降低了元学习器的适应性和鲁棒性等问题。

    事件相机物理特性仿真方法及装置

    公开(公告)号:CN118741084A

    公开(公告)日:2024-10-01

    申请号:CN202411000125.4

    申请日:2024-07-24

    申请人: 清华大学

    摘要: 本发明涉及相机仿真技术领域,特别涉及一种事件相机物理特性仿真方法及装置,其中,方法包括:建立目标事件相机的镜头组的描述文件,以选取多个采样间隔点;计算每个采样间隔点的出瞳情况,并根据每个采样间隔点的出瞳情况生成整个直线上的出瞳情况;基于目标场景和目标事件相机建模得到的三维场景模型,判断目标场景的光束是否在整个直线上的出瞳情况内,若在整个直线上的出瞳情况内,则将光束转换为光电流,否则忽略光束;利用目标事件相机的传感器对光电流进行仿真得到三维仿真结果。由此,得到了一种基于物理的全链路事件仿真器,可以为多种事件相机视觉任务提供数据,解决了传统相机在高速运动、过光照和低光照场景的难以高精度检测等问题。

    物体的姿态估计方法、装置、电子设备及存储介质

    公开(公告)号:CN115115701B

    公开(公告)日:2024-07-16

    申请号:CN202210539874.9

    申请日:2022-05-17

    申请人: 清华大学

    发明人: 季向阳 张睿达

    摘要: 本申请涉及计算机视觉技术领域,特别涉及一种物体的姿态估计方法、装置、电子设备及存储介质,方法包括:基于预先训练的物体检测器获取待测物体的所在区域,将其对应的深度图反投影至三维空间,得到待测物体的点云数据,并结合待测物体的类别的先验形状信息得到点云数据和形状先验信息的特征,将二者特征拼接并输入至回归姿态分支和预测边界框分支,得到待测物体的预测位姿和预测边界框,从而获取待测物体的姿态估计结果。由此,解决了因相关技术中的求解边界框方法缺乏先验知识的引导,从而导致求解精度受限,速度较慢及鲁棒性较差等问题,通过将形状先验信息和求解边界框相结合,从而简化了边界框的求解过程,并通过几何约束提高了求解精度。