一种基于流行度的P2P流媒体复制方法

    公开(公告)号:CN103458315A

    公开(公告)日:2013-12-18

    申请号:CN201310385411.2

    申请日:2013-08-29

    Inventor: 杨戈 高兵 刘宏

    Abstract: 本发明公开了一种基于流行度的P2P流媒体复制方法。本方法为:1)从P2P流媒体系统中选取若干节点作为候选节点;2)统计P2P流媒体系统中每个流媒体文件的长度及其期望的赤字带宽,计算流媒体文件的流行度,根据流媒体文件的流行度值确定出将要变热的流媒体文件Mi;3)计算当前观看这些Mi的节点的总的可利用存储空间的大小,以及这些Mi所期望的存储空间之和的大小;如果系统当前总的可以利用的存储空间大期望的存储空间之和,赋期望存储空间值做为各个Mi的存储空间大小,并把它复制到当前节点上;否则,对于每个流媒体文件的赋其与副本最优速率相近的缓存空间大小。然后复制到在综合性能比较好的节点上。

    一种基于改进的并行模型组合的声音事件识别方法

    公开(公告)号:CN103310789A

    公开(公告)日:2013-09-18

    申请号:CN201310239724.7

    申请日:2013-06-17

    Inventor: 刘宏 王一 李晓飞

    Abstract: 本发明涉及一种基于改进的并行模型组合的声音事件识别方法,其步骤包括:1)录制声音事件的数据,根据干净声音事件训练得到GMM高斯混合模型,建立干净声音事件模板;2)在室内真实有噪声的环境下获取当前环境中的噪声数据,根据噪声数据训练得到GMM,建立噪声模板;3)对噪声模板和干净声音事件模板采用改进的并行模型融合的方法,得到带噪声音事件模板;4)采样得到带噪声音事件样本信号,根据带噪声音事件模板中的参数对样本信号进行声音识别。本发明通过建立能够更好描述背景噪声特征分布的GMM来作为PMC方法中一个输入,建立5种声音事件的干净GMM作为PMC的另一个输入。同时本发明保证了识别系统对噪声的鲁棒性。

    一种实时的婴儿啼哭声识别方法

    公开(公告)号:CN103280220A

    公开(公告)日:2013-09-04

    申请号:CN201310148422.9

    申请日:2013-04-25

    Inventor: 刘宏 李晓飞 付卓

    Abstract: 本发明涉及一种实时的婴儿啼哭声识别方法,其步骤包括:1)录制婴儿啼哭声信号并建立声音库,进行预处理;2)当啼哭声开始时,采集得到婴儿啼哭声后采样得到实时数字信号,并在固定时间窗内对实时数字信号中的完整语音段依次进行分帧、加窗处理后提取得到实时特征向量序列;3)将实时特征向量序列与该GMM模板进行匹配,得到似然度最大的类,将最大的类作为识别结果,并对当前识别结果进行投票;4)当啼哭声结束后,根据投票结果判断婴儿啼哭声类别,完成识别,进行婴儿状况处理。本发明能够实时快速地判别婴儿啼哭声属于饥饿型、困倦型、尿湿型和疼痛型中的哪种类型,辅助护理人员及时反应、识别性能高。

    机器人的主动视觉人脸跟踪方法和跟踪系统

    公开(公告)号:CN102411368A

    公开(公告)日:2012-04-11

    申请号:CN201110207529.7

    申请日:2011-07-22

    Applicant: 北京大学

    Inventor: 刘宏 赵浩 丁润伟

    Abstract: 本发明公开一种机器人的主动视觉人脸跟踪方法和跟踪系统,跟踪方法包括如下步骤:(1)移动机器人通过主动摄像机获取环境信息图像并检测人脸目标;(2)检测到人脸目标后,机器人对人脸目标进行跟踪,并通过主动摄像机和机器人移动将人脸目标保持在图像中心。跟踪系统包括主动摄像机、图像跟踪模块、运动跟踪模块、层级缓冲模块和状态反馈模块。本发明实现了机器人的人脸自动检测与跟踪,通过图像跟踪和运动跟踪的结合,解决了图像视角较小的局限性,建立了移动机器人基于主动视觉的感知-运动环。使得人脸跟踪的移动范围扩展到360°,保证了跟踪范围的全方位扩展。两层的缓冲区域保证了跟踪的连续性,使人脸目标始终保持在图像中心。

    一种机器人连续声源定位方法

    公开(公告)号:CN102305925A

    公开(公告)日:2012-01-04

    申请号:CN201110207551.1

    申请日:2011-07-22

    Applicant: 北京大学

    Inventor: 沈苗 刘宏

    Abstract: 本发明公开了一种机器人连续声源定位方法,包括1)机器人采用至少两对麦克风构成的麦克风阵列采集声源信号,并将信号转换为数字信号后存储;2)对采集的信号进行有效音频信号检测,对包含有效音频的信号进行声源定位运算,获得声源相对于机器人的位置。本发明的方法应用在机器人的声源定位系统中,特别是机器人计算能力有限的时候,针对不同的应用场景及声源的频率特性和噪声特性可以将傅里叶变换以后的频域信号进行分片,对不同片的频谱进行不同的处理,大幅降低了机器人的定位运算时间,定位速度快。同时针对机器人移动的特点,对其移动位角度进行运动修正以后,大幅提高了定位的准确度跟实时性。

    一种基于多线索融合的视觉跟踪方法

    公开(公告)号:CN101610412A

    公开(公告)日:2009-12-23

    申请号:CN200910088878.4

    申请日:2009-07-21

    Applicant: 北京大学

    Inventor: 杨戈 刘宏

    Abstract: 本发明公开了一种基于多线索融合的视觉跟踪方法,属于信息技术领域。本发明方法包括:a)在视频序列的第一帧中确定包括目标区域和背景区域的跟踪窗口;b)自第二帧起,获得前一帧的颜色特征概率分布图,位置特征概率分布图和运动连续性特征概率分布图;c)将所述三种概率分布图加权相加得到总概率分布图;d)在所述总概率分布图中,通过CAMSHIFT算法得到当前帧的跟踪窗口的中心点坐标。本发明方法可用于人机交互、视觉智能监控、智能机器人、虚拟现实技术、基于模型的图像编码,流媒体的内容检索等领域。

    面向智能服务机器人的语音交互系统的实现方法

    公开(公告)号:CN101577118A

    公开(公告)日:2009-11-11

    申请号:CN200910087108.8

    申请日:2009-06-12

    Applicant: 北京大学

    Inventor: 刘宏 杨雪松

    Abstract: 本发明公开了一种面向智能服务机器人的语音交互系统的实现方法,通过改进的鲁棒性模板训练法训练语音模板,挑选出可用于人机交互的鲁棒性较强的词汇表,弱化了不同说话人的个性信息,在系统的抗噪声和与说话人无关方面得以改进。当输入待测语音时,基于挑选的词汇表计算待测语音与各语音模板的匹配距离,选择最小距离对应的模板为识别结果,如果该识别结果信赖度较高,则输出识别结果,如果信赖度较低,则拒绝该识别结果,同时选择次小距离对应的模板为识别结果,再次判定,如此循环,直至找到信赖度较高的识别结果为止,有效屏蔽了信赖度较低的待测语音,同时又可以修正识别结果,提高识别性能,实现了说话人与机器人安全、友好地交互。

    一种基于相机感知解耦和不确定性建模的人物再识别方法

    公开(公告)号:CN118609156A

    公开(公告)日:2024-09-06

    申请号:CN202410639702.8

    申请日:2024-05-22

    Inventor: 刘宏 郭静文

    Abstract: 本发明公开了一种基于相机感知解耦和不确定性建模的人物再识别方法。本方法为:1)构建由特征提取模块、相机感知解耦模块、不确定性建模模块、协同教学模块四个部分构成的CSUE模型;2)利用有标记的源数据集来预训练CSUE模型;3)将机器人拍摄的无标识照片输入预训练后的CSUE模型,得到无标识照片的识别结果。本发明利用特征提取模块对机器人所拍摄的照片进行特征提取用于生成伪标签,实现对机器人拍摄的照片特征提取与目标物体的初步标记,利用相机感知解耦模块、不确定性建模模块对伪标签进行微调,完成机器人拍摄的照片中物体的最终标记。本发明充分利用标签的不确定性,高效的细化了伪标签,可以灵活地使用现有的网络架构。

Patent Agency Ranking