-
公开(公告)号:CN107273873B
公开(公告)日:2019-09-17
申请号:CN201710572155.6
申请日:2017-07-13
Abstract: 本发明提供基于不规则视频序列的行人重识别方法及系统,包括通过检测状态曲线中的稳定点,从视频序列提取多个连续的子序列,得到候选序列;利用稀疏表示求取每个子序列的重构误差,得到各子序列的噪声度量结果;根据各子序列的噪声度量结果,从候选序列中剔除噪声大于相应阈值的子序列,构成候选池;进行自适应权重的行人特征表示,得到基于视频序列的检索结果。本发明提升了不规则序列下行人重识别的性能,可广泛用于监控领域、视频分析以及其他多媒体应用,精度高,效果好,具有重要的市场价值。
-
公开(公告)号:CN107273873A
公开(公告)日:2017-10-20
申请号:CN201710572155.6
申请日:2017-07-13
Abstract: 本发明提供基于不规则视频序列的行人重识别方法及系统,包括通过检测状态曲线中的稳定点,从视频序列提取多个连续的子序列,得到候选序列;利用稀疏表示求取每个子序列的重构误差,得到各子序列的噪声度量结果;根据各子序列的噪声度量结果,从候选序列中剔除噪声大于相应阈值的子序列,构成候选池;进行自适应权重的行人特征表示,得到基于视频序列的检索结果。本发明提升了不规则序列下行人重识别的性能,可广泛用于监控领域、视频分析以及其他多媒体应用,精度高,效果好,具有重要的市场价值。
-
公开(公告)号:CN107358947A
公开(公告)日:2017-11-17
申请号:CN201710488312.5
申请日:2017-06-23
Abstract: 本发明公开了一种说话人重识别方法及系统,包括:S1构建多场景的人声语料库;S2对人声语料库中各语音样本分别进行预处理;S3基于人声语料库进行场景分析与聚类;S4,语音信号建模;S5在待查询语音库中查找与查询语音匹配的语音样本。本发明提出了说话人重识别这样的新问题,给定说话人在某一场景下的语音片段,将其它场景下属于该说话人的语音片段按照其身份的一致性从高到低进行排序,将排序最靠前的语音样本所对应的说话人作为说话人重识别的结果。
-
公开(公告)号:CN107590821B
公开(公告)日:2022-03-04
申请号:CN201710876003.5
申请日:2017-09-25
Applicant: 武汉大学
IPC: G06T7/246
Abstract: 本发明提供一种基于轨迹优化的目标跟踪方法及系统,在第一帧进行目标模型的构建,包括首先对目标进行样本的采样,进而根据与目标的覆盖率标记样本,提取多融合特征训练结构化的分类器,得到基础的目标模型;然后在后续帧图片中采取若干候选,利用每一个候选训练模型,选出下一帧中置信度最高的候选。如此迭代多帧之后,根据连续多帧中构成的多条轨迹的平均置信度,从而选出目标的最佳运动短轨迹。因此,本发明通过引入目标在连续帧的时序稳定性,克服了传统的基于静态检测方法因忽略时空信息导致模型判别力不足,从而无法选出最佳目标而导致模型漂移的问题,并且提出一种基于多特征融合的结构化输出分类模型,能有效地提高模型的辨别力。
-
公开(公告)号:CN110570458B
公开(公告)日:2022-02-01
申请号:CN201910738616.1
申请日:2019-08-12
Applicant: 武汉大学
Abstract: 本发明属于计算机视觉技术领域,公开了一种基于内部裁剪和多层特征信息融合的目标跟踪方法,包括:获取视频序列数据集,根据视频序列数据集构成训练集;构建孪生网络,孪生网络的基础骨干采用经内部裁剪单元改进后的ResNet18特征提取网络和RPN网络的组合;基于训练集,训练孪生网络,获得训练收敛的孪生网络模型;利用孪生网络模型进行在线跟踪。本发明解决了现有技术中深度学习跟踪方法的特征表达能力和模型泛化能力弱,跟踪器无法有效地应对目标表观的剧烈时空变化的问题。
-
公开(公告)号:CN107862696B
公开(公告)日:2021-07-02
申请号:CN201711022989.6
申请日:2017-10-26
Applicant: 武汉大学
Abstract: 本发明公开了一种基于时尚图迁移的特定行人衣物解析方法及系统,包括:首先,通过训练时尚数据集初始化该模型;然后,将该模型用于解析含有行人的监控图像,并引入条带约束优化解析结果;最后,采用监控数据集中的弱标签通过基于示例的迁移学习方法处理模型迁移问题。本发明提出的方法可以获得时尚图集中的衣服信息,并结合弱监督通过迁移学习将其应用于监控领域,既可以保留衣服解析在时尚领域获取的信息,同时也可以改善监控衣物解析效果,并极大地减轻数据的标注工作量。在对实际监控数据集的定量和定性测试中,都佐证了本发明所提方法的有效性。
-
公开(公告)号:CN112288775B
公开(公告)日:2022-04-15
申请号:CN202011145648.X
申请日:2020-10-23
Applicant: 武汉大学
IPC: G06T7/246
Abstract: 本发明公开了一种基于长短期预测模型的多目标遮挡跟踪方法,包括:首先设计基于运动的预测模型和基于外观的预测模型来预测丢失目标位置;其次设计一种自适应加权融合方法来融合这两个预测结果得到短期预测结果;然后通过样条插值法进行预测丢失目标的位置并将其结果视为长期预测结果;最后设计一种自适应加权融合方法来融合长期和短期预测结果。本发明提出的方法解决了多目标跟踪中单一处理某种遮挡时间的问题,可以有效处理不同遮挡时间长度和处理不同类型的遮挡,有效地恢复了目标在遮挡帧期间的位置,提升了跟踪的准确度。在对实际监控数据集的定量和定性测试中,都佐证了本发明所提方法的有效性。
-
公开(公告)号:CN106157251B
公开(公告)日:2018-10-26
申请号:CN201510151907.2
申请日:2015-04-01
Applicant: 武汉大学
IPC: G06T5/00
Abstract: 一种基于柯西正则化的人脸超分辨率方法,包括对输入的低分辨率人脸图像、低分辨率训练集中的低分辨率人脸样本图像以及高分辨率训练集中的高分辨率人脸样本图像划分相互重叠的图像块;分别建立高、低分辨率图像块集作为高、低分辨率图像块字典;用低分辨率图像块字典表示该图像块,利用柯西约束项求解重建系数,然后利用此重建系数和高分辨率图像块字典重建出新的高分辨率图像块;根据低分辨率图像块的位置关系将所得的高分辨率图像块融合成高分辨率图像。本发明在最小二乘法的基础上对重建系数加上柯西约束,本发明可得到了更高质量、与真实情况更为接近的重建效果。
-
公开(公告)号:CN106157251A
公开(公告)日:2016-11-23
申请号:CN201510151907.2
申请日:2015-04-01
Applicant: 武汉大学
IPC: G06T5/00
Abstract: 一种基于柯西正则化的人脸超分辨率方法,包括对输入的低分辨率人脸图像、低分辨率训练集中的低分辨率人脸样本图像以及高分辨率训练集中的高分辨率人脸样本图像划分相互重叠的图像块;分别建立高、低分辨率图像块集作为高、低分辨率图像块字典;用低分辨率图像块字典表示该图像块,利用柯西约束项求解重建系数,然后利用此重建系数和高分辨率图像块字典重建出新的高分辨率图像块;根据低分辨率图像块的位置关系将所得的高分辨率图像块融合成高分辨率图像。本发明在最小二乘法的基础上对重建系数加上柯西约束,本发明可得到了更高质量、与真实情况更为接近的重建效果。
-
公开(公告)号:CN104462550A
公开(公告)日:2015-03-25
申请号:CN201410827080.8
申请日:2014-12-25
Applicant: 武汉大学
CPC classification number: G06K9/00342 , G06K9/00362
Abstract: 本发明公开了一种基于相似性和不相似性融合排序优化的行人重识别方法,行人重识别是一种针对特定行人的检索问题,本发明的主要思想是正确检索的行人目标应该跟查询行人的极正样本相似,并且跟查询行人的极负样本不相似。同时我们将与极正样本相似的那些行人定义为疑正样本,与极负样本相似的样本为疑负样本,通过提高疑正样本的排名,同时降低疑负样本的排名,来达到通过排序优化的方式来提升行人重识别的效果。此外,融合多种方法的结果来加强这种相似性和不相似性关系。本发明通过对相似性和不相似性的排序结果进行融合,进而提升多摄像头下同一行人匹配的准确性。
-
-
-
-
-
-
-
-
-