一种结合特征分离模型和视角转换模型的步态识别方法

    公开(公告)号:CN111639580B

    公开(公告)日:2023-07-18

    申请号:CN202010452373.8

    申请日:2020-05-25

    发明人: 华璟 罗利鹏

    摘要: 本发明公开了一种结合特征分离模型和视角转换模型的步态识别方法,该方法包括以下步骤:数据采集;训练基于特征分离模型和生成式对抗网络的视角转换器;训练视角判别器;训练步态识别器;测试与实际应用;本发明通过特征分离模型分离开外观特征和步态特征,使得在训练和实际应用中可以直接使用摄像机拍摄到的图像作为算法输入,而无需对图像进行语义分割等背景减法,有效降低了背景减法产生的误差;本发明通过视角转换降低了跨摄像头视角不同导致的识别误差;在测试时,本发明无需以步态模板或者连续视频序列作为输入,仅需要部分视频帧即可,且对是否连续没有要求。本发明提高了步态识别算法的鲁棒性。

    基于深度卷积神经网络的多摄像机系统目标匹配方法

    公开(公告)号:CN104616032B

    公开(公告)日:2018-02-09

    申请号:CN201510047118.4

    申请日:2015-01-30

    发明人: 王慧燕 华璟

    IPC分类号: G06K9/66 G06K9/46

    摘要: 一种基于深度卷积神经网络的多摄像机间的目标匹配方法。本发明基于局部保护投影方法初始化多个卷积核,基于最大值池化方法对图像进行下采样,通过逐层特征变换,提取更加鲁棒、更加具有代表性的直方图特征;再利用多类支持向量机SVM分类器进行分类识别。当目标从一个摄像机视野域进入另外一个摄像机视野域时,对其提取特征并标注对应的目标标签,实现在多摄像机协作监控领域对目标进行准确的识别,以用于目标交接及跟踪等。

    基于集成学习级联分类器的车道线检测方法

    公开(公告)号:CN106228125A

    公开(公告)日:2016-12-14

    申请号:CN201610563188.X

    申请日:2016-07-15

    IPC分类号: G06K9/00 G06K9/62

    CPC分类号: G06K9/00798 G06K9/6257

    摘要: 本发明公开了一种基于集成学习级联分类器的车道线检测方法,可以在单个CPU或DSP上实时的获取图中车道线准确的位置和方向信息,进而得到车道线方程,同时对交通场景的亮度变化具有一定鲁棒性。该检测方法过程:首先架设图像传感器,获取需提取车道线的彩色图像;然后基于前帧的检测结果提取感兴趣区域;再计算积分图和单尺度块LBP特征;接着采用集成学习遍历感兴趣区域,得到车道线细小区域;得到车道线细小区域后,最后使用基于最优化的办法得到车道线方程。

    通过隐式神经光场表示的实时单目SLAM方法及装置

    公开(公告)号:CN117274373A

    公开(公告)日:2023-12-22

    申请号:CN202311307483.5

    申请日:2023-10-08

    发明人: 华璟 何雷 孙杰

    IPC分类号: G06T7/70 G06T7/50

    摘要: 本发明涉及一种通过隐式神经光场表示的实时单目SLAM方法及装置。本发明采用相机定位和地图构建分步处理的方式实现单目RGB相机下通过隐式神经光场存储地图的实时SLAM;预训练一个估计相机位姿和深度的快推理模型,解决单目RGB相机在没有激光雷达和陀螺仪的条件下,无法为SLAM系统提供定位功能和场景深度信息的问题;通过基于光流估计的稠密束调整有效地优化相机位姿和地图点的位置,提升了位姿估计的准确性和深度估计的稳定性,增强了系统的鲁棒性;利用隐式神经光场存储和渲染场景地图,以更小的存储代价,解决了传统方法中场景表示不连续、分辨率受限、视角切换不流畅、光照和纹理建模困难的问题。

    基于轮廓卷积神经网络的视频动作识别方法

    公开(公告)号:CN111639571B

    公开(公告)日:2023-05-23

    申请号:CN202010433443.5

    申请日:2020-05-20

    发明人: 华璟 高明琦

    摘要: 本发明公开了一种基于轮廓卷神经网络的视频动作识别方法,首先对于带有标签的视频进行逐帧的剪裁处理,对于剪裁后的样本进行必要的增广操作;其次通过轮廓卷积操作ContourConv得到良好的分割结果并有效地提取出图片中有序的动作点云集合与几何特征;接着使用RGB与光流的双流网络对图片的表层特征进行提取;最终将上述两个分支进行模型融合,传入检测设备中,将传入到检测设备的特征图进行动作识别预测,得到最终的预测结果。本发明通过轮廓卷积将人体姿态的几何信息提取出来并作为行为识别网络的一个新的分支,从而对原有网络产生明显的提升作用,实现高效准确地视频动作识别。

    一种高性能行人检索与重识别方法及装置

    公开(公告)号:CN115063831A

    公开(公告)日:2022-09-16

    申请号:CN202210409679.4

    申请日:2022-04-19

    发明人: 华璟 吴绍鑫 孙杰

    摘要: 本发明公开了一种高性能行人检索与重识别方法及装置,该方法包括:分别获取单视角和多视角现实监控场景下的行人数据,对行人数据进行数据标注,其中单视角行人数据与COCO数据集中的行人部分,共同构建行人检测数据集,多视角行人数据构建行人重识别数据集;利用行人检测数据集基于Ghost轻量化模型改进的YOLOv5行人检测算法训练网络模型;利用行人重识别数据集训练得到行人重识别模型;搭建行人搜索系统。本发明通过深度模型压缩和算法算力的协同优化,从算法到硬件的自上而下的方法来优化深度学习的效率,实现低代价高性能的行人重识别系统。

    一种结合特征分离模型和视角转换模型的步态识别方法

    公开(公告)号:CN111639580A

    公开(公告)日:2020-09-08

    申请号:CN202010452373.8

    申请日:2020-05-25

    发明人: 华璟 罗利鹏

    摘要: 本发明公开了一种结合特征分离模型和视角转换模型的步态识别方法,该方法包括以下步骤:数据采集;训练基于特征分离模型和生成式对抗网络的视角转换器;训练视角判别器;训练步态识别器;测试与实际应用;本发明通过特征分离模型分离开外观特征和步态特征,使得在训练和实际应用中可以直接使用摄像机拍摄到的图像作为算法输入,而无需对图像进行语义分割等背景减法,有效降低了背景减法产生的误差;本发明通过视角转换降低了跨摄像头视角不同导致的识别误差;在测试时,本发明无需以步态模板或者连续视频序列作为输入,仅需要部分视频帧即可,且对是否连续没有要求。本发明提高了步态识别算法的鲁棒性。

    一种基于多尺度特征学习的行人重识别方法

    公开(公告)号:CN116977817A

    公开(公告)日:2023-10-31

    申请号:CN202310477517.9

    申请日:2023-04-28

    发明人: 华璟 陈然 孙杰

    摘要: 本发明涉及一种基于多尺度特征学习的行人重识别方法,提出有效结合CNN和Transformer的优势,通过将CNN和Transformer两种结构结合对网络进行改进,由此提出了Transformer学习分支,并在局部分支加入了一种双层的特征金字塔结构,融合来自不同层次的特征信息,以获取行人图像中不同的语义和细节信息,并增强特征表达的能力。该种方式可以让模型保留CNN的较快推理速度的优势,并且可以避免全局替换Transformer所产生的速度慢和过度解耦的问题,从调整网络模型结构的角度上,利用Transformer的感受野更广的优势来建模相隔较远的像素点间之间的关系,提升模型的泛化能力。