-
公开(公告)号:CN109239665A
公开(公告)日:2019-01-18
申请号:CN201810752391.0
申请日:2018-07-10
Applicant: 北京大学深圳研究生院
IPC: G01S5/18
Abstract: 本发明公开一种基于信号子空间相似度谱和粒子滤波器的多声源连续定位方法和装置。本方法采用一种时频域加权机制选择单声源主导时频带,避免了多声源定位中出现的声源相互影响的问题,一定程度上抑制混响噪声影响;利用空间相关矩阵主特征向量包含的声源方向信息,构建局部信号子空间相似度谱,可以有效地反映声源的位置信息;采用局部谱分配方法综合多个时频带得到半局部谱,并采用粒子滤波器考虑帧间连续信息对声源进行跟踪,进一步提升了连续定位的准确性。本发明的优势在于为实际应用中多移动声源同时发声的声学场景提供了一种有效的声源定位思路。
-
公开(公告)号:CN108960099A
公开(公告)日:2018-12-07
申请号:CN201810653661.2
申请日:2018-06-22
Applicant: 哈尔滨工业大学深圳研究生院 , 北京大学深圳研究生院
CPC classification number: G06K9/00228 , G06K9/6201
Abstract: 本发明公开了一种人脸左右倾斜角度的估计方法、系统、设备及存储介质,包括以下步骤:将人脸图像以指定方式均分为第一图像和第二图像;计算所述第一图像与第二图像之间的像素值的相对差异值;根据所述相对差异值计算出对应的人脸左右倾斜角度。本发明的人脸左右倾斜角度的估计方法、系统、设备及存储介质的有益效果为:通过根据像素值的相对差异值计算出对应的人脸左右倾斜角度,简化了人脸倾斜角度估计的步骤,提高了人脸左右倾斜角度计算速度和有效地避免了光照变化的影响。
-
公开(公告)号:CN107358189A
公开(公告)日:2017-11-17
申请号:CN201710549591.1
申请日:2017-07-07
Applicant: 北京大学深圳研究生院 , 深圳市银星智能科技股份有限公司
Abstract: 本发明涉及一种基于多视目标提取的室内环境下物体检测方法。该方法包括:1)建立室内环境的半稠密地图;2)处理半稠密地图,将表示同一物体的区域用边界框框出来;3)将边界框重新投影到对应相机位姿的单帧图片上;4)提取图片流的SIFT特征并进行降维处理;5)将特征向量与边界框进行匹配,得到描述边界框内物体的特征向量;6)将所有特征向量利用FLAIR的方法进行编码,并保存为词袋;7)重复以上步骤,将不同图片得到的特征向量与词袋进行匹配,若无法匹配则更新词袋,直到建成完整地图,即可实现对场景中所有物体的分类。本发明计算速度快,检测完备率高,随着物体种类增加计算资源消耗的增长接近常数值。
-
公开(公告)号:CN107144818A
公开(公告)日:2017-09-08
申请号:CN201710169496.9
申请日:2017-03-21
Applicant: 北京大学深圳研究生院
IPC: G01S5/18
CPC classification number: G01S5/18
Abstract: 本发明提出了一种基于双向双耳匹配滤波器加权融合的双耳声源定位方法,提出了一种新的双耳定位线索,采用双向匹配,决策加权融合的方法得到鲁棒的特征双耳线索。利用包含更多能量信息的定位线索进行定位,有效解决了声源定位技术中双耳线索在噪声环境下只能在部分区域性能最优、垂直方向定位效果差的问题。该方法提出了双耳匹配滤波的概念,提取新的定位线索,降低了算法的时间复杂度,保证了声源定位系统的实时性要求。通过该方法,可以提高在噪声环境下的双耳声源定位的效果。
-
公开(公告)号:CN106846367A
公开(公告)日:2017-06-13
申请号:CN201710081019.7
申请日:2017-02-15
Applicant: 北京大学深圳研究生院 , 深圳市银星智能科技股份有限公司
IPC: G06T7/246
Abstract: 本发明公开了一种基于运动约束光流法的复杂动态场景的运动物体检测方法。本方法为:1)视频输入;2)提取ORB特征;3)将提取特征与运动物体特征库中的特征进行相似度比较;4)获取当前机器人的运动矢量;5)计算局部光流;6)筛选并建立运动物体特征点库,进而可建立环境点云图。本发明通过机器人的运动方向提高光流法对特征点梯度变化的检测速度;将运动物体的特征以一定的时效性保存在库中,并对时效值及时更新,避免对该特征点的重复计算;本发明比较当前提取的特征和运动物体特征库中的特征的欧式距离,从而减少光流跟踪特征的计算;本发明能减少运动物体对环境的影响,增加机器人对环境建模的可靠性。
-
公开(公告)号:CN103943107B
公开(公告)日:2017-04-05
申请号:CN201410133414.1
申请日:2014-04-03
Applicant: 北京大学深圳研究生院
Abstract: 本发明涉及一种基于决策层融合的音视频关键词识别方法,其主要包括以下步骤:1)录制关键词音视频,得到关键词和非关键词的语音声学特征向量序列和视觉特征向量序列,并据此训练关键词和非关键词的声学模板和视觉模板;2)根据不同声学噪声环境下的音视频,得到声学似然度和视觉似然度,并据此得到声学模态可靠度、视觉模态可靠度和最优权重,并据此训练人工神经网络;3)根据声学模板和视觉模板、人工神经网络,对待测音视频进行并行的基于声学和视觉双模态的二次关键词识别。本发明将声学作用和视觉作用在决策层进行融合,对待测音视频进行并行的基于双模态的二次关键词识别,充分利用声学噪声环境下视觉信息的贡献,提高识别性能。
-
公开(公告)号:CN103426008B
公开(公告)日:2017-04-05
申请号:CN201310385425.4
申请日:2013-08-29
Applicant: 北京大学深圳研究生院
IPC: G06K9/66
Abstract: 本发明涉及一种基于在线机器学习的视觉人手跟踪方法及系统,系统包括:跟踪器、检测器和在线机器学习。跟踪方法为:本发明通过在线学习将基于分类器的检测和基于运动连续性的跟踪结合起来,以实现对现实应用场景鲁棒的人手跟踪。通过利用层级分类器(检测器)对搜索区域内的像素点进行分类,得到对目标的保守但稳定的估计;利用结合鸟群算法的光流法跟踪器对目标进行适应性较强但不太稳定的估计;利用在线学习机制将二者结合得到的跟踪结果,并且根据时间空间约束产生新的样本来在线更新层级的分类器,从而实现跟踪器和检测器的互补,来获得更加鲁棒的跟踪结果。本发明增强了对光照变化和快速运动的鲁棒性。
-
公开(公告)号:CN106339582A
公开(公告)日:2017-01-18
申请号:CN201610697369.1
申请日:2016-08-19
Applicant: 北京大学深圳研究生院
CPC classification number: G06F19/00 , A63F3/00643 , A63F13/60
Abstract: 本发明公开了一种基于机器博弈技术的棋牌类游戏自动化残局生成方法。本方法为:自动生成随机残局库;对生成的残局库中的每个残局构建未来局面的博弈树,基于双方的合法策略序列生成所有可能的未来局面;对博弈树生成的所有叶节点展开分析,生成估值博弈树和胜负估值博弈树;通过计算根节点解数量及子树解数量,计算关键路径最大容忍振幅,得到最终残局难度评估,根据设定阈值进行筛选和记录。本发明能适应于主流的棋牌类游戏特点,建立可控难度的残局数据库。对于最终建立的残局库的准确率达到95%以上。
-
公开(公告)号:CN103310454B
公开(公告)日:2016-12-28
申请号:CN201310239290.0
申请日:2013-06-17
Applicant: 北京大学深圳研究生院
IPC: G06T7/00
Abstract: 本发明涉及一种滞留物检测中的静止物体类型判断与物主分析方法及系统,系统输入:静止物体图像,输入前景物体图像,以及该帧图像的帧信息和前景物体在图像中的位置和大小信息,输出:静止物体是否是滞留物,如果是滞留物,返回携带者的信息。步骤包括:1)建立背景模型并检测出每帧图像前景物体,根据前景物体生成物体分类器;2)将静止的前景物体输入到物体分类器根据分类器返回的置信值的平均值判断得到静止前景物体类型为物品或者人体;3)对静止前景类型为物品的物体进行物主分析,得到物品的携带者信息,判断出物主。本发明有效地区分了场景中的静止的人与物品,当判断静止物体类型是物品的情况下,可以立即反馈物品携带者的信息。
-
公开(公告)号:CN105893967A
公开(公告)日:2016-08-24
申请号:CN201610201446.X
申请日:2016-04-01
Applicant: 北京大学深圳研究生院
IPC: G06K9/00
Abstract: 本发明涉及一种基于时序保留性时空特征的人体行为分类检测方法及系统,在由视频输入端、时序特征提取输出端和离线训练分类器构成的系统中,方法步骤为:1)在视频序列中检测人体目标;2)对包含人体目标的时空域提取时空兴趣点,并使用均值聚类方法将时空兴趣点聚类成K个类别;3)对于时空兴趣点对,统计时序保留性时空特征的时间轴分布特征;4)将时序特征和时空兴趣点词袋特征进行加权融合;5)利用词袋模型和分类器训练人体行为模板并进行分类。本发明通过描述相同类别特征点之间的时序关系来建立人体行为模型,能够很好地提升不同人体行为之间的区分度。
-
-
-
-
-
-
-
-
-