-
公开(公告)号:CN103901401B
公开(公告)日:2016-08-17
申请号:CN201410143474.1
申请日:2014-04-10
Applicant: 北京大学深圳研究生院
IPC: G01S5/18
Abstract: 本发明公开了一种新的基于贝叶斯分层模式的双耳声音源定位方法,首先,可靠频带选择机制保证了选择用于估计双耳时间差的频带是可靠的,提高了时间差的估计精度;其次,利用双耳能量差来缩小第一层得到的候选方向集合;再次,第三层提出了双耳匹配滤波器作为新的双耳定位特征,它描述了双耳信号之间的差异,能够充分表达双耳时间差和双耳能量差之间的关系;最后,针对三层定位过程中搜索空间逐渐缩小,采用贝叶斯决策的准则得到概率最大的方向。这种分层的定位系统能够有效地减少特征匹配的次数,降低了算法的时间复杂度,保证了声源定位系统的实时性要求。
-
公开(公告)号:CN103310789B
公开(公告)日:2016-04-06
申请号:CN201310239724.7
申请日:2013-06-17
Applicant: 北京大学深圳研究生院
Abstract: 本发明涉及一种基于改进的并行模型组合的声音事件识别方法,其步骤包括:1)录制声音事件的数据,根据干净声音事件训练得到GMM高斯混合模型,建立干净声音事件模板;2)在室内真实有噪声的环境下获取当前环境中的噪声数据,根据噪声数据训练得到GMM,建立噪声模板;3)对噪声模板和干净声音事件模板采用改进的并行模型融合的方法,得到带噪声音事件模板;4)采样得到带噪声音事件样本信号,根据带噪声音事件模板中的参数对样本信号进行声音识别。本发明通过建立能够更好描述背景噪声特征分布的GMM来作为PMC方法中一个输入,建立5种声音事件的干净GMM作为PMC的另一个输入。同时本发明保证了识别系统对噪声的鲁棒性。
-
公开(公告)号:CN103251388B
公开(公告)日:2014-12-10
申请号:CN201310148053.3
申请日:2013-04-25
Applicant: 北京大学深圳研究生院
Abstract: 本发明涉及基于智能手机平台的打鼾监测和防治方法及系统,包括鼾声信号的分析模块、即时干预模块和信息反馈模块。监测和防治方法为:1)建立重度鼾声信号和轻度鼾声信号库,对鼾声信号分别进行预处理提取特征向量,训练重和轻度GMM模板;2)在手机客户端实时录入用户的鼾声信号进行处理,在特定时间窗内对处理完后的鼾声信号进行实时四维特征向量序列提取;3)将实时四维特征向量序列分别与轻度和重度两类鼾声GMM模板进行匹配,似然度最大的类作为识别结果;4)若打鼾程度判定为严重,计算当前时间窗内的最大鼾声间隔时间;5)若最大鼾声间隔超过10S,采用外界刺激制止用户打鼾。本发明能够即时进行外界干预,有效制止用户打鼾。
-
公开(公告)号:CN103886319A
公开(公告)日:2014-06-25
申请号:CN201410111626.X
申请日:2014-03-24
Applicant: 北京大学深圳研究生院
IPC: G06K9/54
Abstract: 本发明公开了一种基于机器视觉的举牌智能识别方法。本方法为:1)将每一类别的选票保存为一模板图像;2)对采集的包含选票文本的场景图像进行去噪处理;所述场景图像之间不重叠;3)从去噪处理后的场景图像中提取包含多个选票信息的文本候选区域的二值图像;4)对所述文本候选区域的二值图像进行分割,得到只包含单个选票的矩形候选区域图像块;5)将所述候选区域图像块与每一所述模板图像进行匹配,得到每一候选区域图像块对应的选票类别。本发明能在复杂场景和可变光照条件下,对大规模群众举牌方式投票达到90%以上的票数检测率和100%对于不同票的识别率,处理时间快。
-
公开(公告)号:CN103854016A
公开(公告)日:2014-06-11
申请号:CN201410119629.8
申请日:2014-03-27
Applicant: 北京大学深圳研究生院
Abstract: 本发明涉及一种基于方向性共同发生特征的人体行为分类识别方法及系统。该方法包括:在视频序列中检测人体目标并提取时空兴趣点;提取HOG和HOF特征,对时空兴趣点聚类;统计具有不同类别标签的时空兴趣点对出现在相同帧时的方向信息;统计方向性时空点对特征直方图,得到针对输入视频的特征描述;将该词袋模型中的直方图特征换成方向性时空点对特征直方图,针对不同类别行为进行训练,得到对应的特征描述;提取得到输入的测试视频的特征描述,与不同类别行为的特征描述模板进行最近邻匹配,匹配度最高的即为该视频对应的行为类别。本发明通过描述局部特征点对之间的方向信息有效提升了人体行为分类和识别的准确率和鲁棒性。
-
公开(公告)号:CN103366353A
公开(公告)日:2013-10-23
申请号:CN201310302540.0
申请日:2013-07-15
Applicant: 北京大学深圳研究生院
IPC: G06T5/50
Abstract: 本发明涉及一种基于显著性区域分割的红外与可见光图像融合方法,其步骤包括:1)利用基于显著性检测的方法对红外和可见光图像进行区域分割;2)对区域分割后的图像进行联合区域表示;3)对红外和可见光图像分别进行多尺度、多方向的轮廓波分解;4)针对联合区域表示后的图像的不同区域选择对应的融合规则,确定低通子带融合系数和带通子带方向融合系数;5)进行系数重构,得到红外和可见光图像的融合图像。本发明在融合结果中即可保留红外图像中的热目标的热辐射特征,又能保留可见光图像中的场景细节特征,从而增加融合图像的信息含有量,提高融合图像的质量。
-
公开(公告)号:CN103278164A
公开(公告)日:2013-09-04
申请号:CN201310233773.X
申请日:2013-06-13
Applicant: 北京大学深圳研究生院
Abstract: 本发明涉及一种复杂动态场景下机器人仿生路径规划方法,以及实现该方法的机器人运动规划仿真平台。该方法根据碰撞可能性和到达可能性建立路径安全性衡量准则,采用两层交互路径规划的算法框架,将运动规划分为环境探索层和局部路径规划层,两层之间利用一个自适应的路径缓冲区来进行信息交互,将安全性更新搜索树作为顶层规划器,应用到两层交互框架中的环境探索层。该仿真平台包括问题模块、规划模块和执行模块。本发明仿照人类路径选取的路径规划策略,提出了一种安全、实时的路径规划方案,克服了现有技术仅考虑路径可行性而没有关注路径持续性的不足,实现了机器人在复杂动态环境中的运动规划。
-
公开(公告)号:CN101290656B
公开(公告)日:2011-04-27
申请号:CN200810067409.X
申请日:2008-05-23
Applicant: 北京大学深圳研究生院
Abstract: 本发明公开了一种用于版面分析中的连通区域提取方法及装置,该方法包括如下步骤:对于目标像素p(x,y),定义其邻域N(p)为:N(p)={(x-1,y),(x+1,y),(x,y-1),(x,y+1),(x-1,y-1),(x+1,y-1),(x-1,y+1),(x+1,y+1),(x-4,y),(x-3,y),(x-2,y),(x+2,y),(x+3,y),(x+4,y),(x,y+2),(x,y-2)};对于和目标像素p(x,y)具有相同像素值的任意像素q(i,j),判断q(i,j)是否在邻域N(p)中,若是,则将像素p(x,y)和像素q(i,j)作为同一连通区域进行提取。本发明的方法和装置能大大减少了提取的连通区域的数目,增大了连通区域的面积,降低了后续处理中连通区域合并的计算量和处理复杂度,使后续处理变得简单易行。
-
公开(公告)号:CN117456552A
公开(公告)日:2024-01-26
申请号:CN202311267861.1
申请日:2023-09-26
Applicant: 北京大学深圳研究生院
IPC: G06V40/10 , G06V10/40 , G06V10/774 , G06V10/80
Abstract: 本申请公开了一种基于人体姿态估计的人体解析方法及相关装置,所述方法包括获取待解析图像的人体关键点图;将所述人体关键点图和所述待解析图像输入经过训练的人体解析模型中的人体解析模块,通过人体解析模块提取人体解析特征图;将所述人体解析特征图输入所述人体解析模型中的像素解码器,通过所述像素解码器提取若干第一特征图;基于所述若干第一特征图以及所述人体解析模型中的Transformer解码器,确定所述待解析图像对应的人体部位分割图。本申请将人体姿态估计与人体解析相结合,将获取到的人体关键点图作为人体解析的先验知识,使得Transformer获知待解析图像中不同类型的人体关键点,提高了人体解析的准确性。
-
公开(公告)号:CN115908497A
公开(公告)日:2023-04-04
申请号:CN202211563969.0
申请日:2022-12-07
Applicant: 北京大学深圳研究生院
Abstract: 本发明涉及一种基于人体拓扑感知网络的三维人体姿态估计方法及系统。本方法利用人体拓扑的分层次结构和运动约束,充分捕捉信息密度稀疏的人体关节点数据中的先验信息,有效缓解了人体末端关节点估计精度不足的问题。本方法构建了一种多层次特征提取聚合框架,可以由细粒度到粗粒度依次提取关节点层次、肢体层次、全身层次的特征信息;构建了同一肢体内关节点间的运动约束关系,利用父节点辅助高误差的末端关节点的预测。本发明充分利用人体拓扑中高度结构化的先验信息,无需引入额外的数据,便可在控制模型参数量的情况下获得更丰富的人体姿态表征学习能力。
-
-
-
-
-
-
-
-
-