-
公开(公告)号:CN107844779A
公开(公告)日:2018-03-27
申请号:CN201711165320.2
申请日:2017-11-21
Applicant: 重庆邮电大学
CPC classification number: G06K9/00744 , G06K9/4671 , G06K9/6211 , G06K9/6215 , G06K9/6288 , G06T5/009 , G06T7/254 , G06T2207/10016
Abstract: 本发明请求保护一种视频关键帧提取方法,包括以下步骤:使用ViBe算法融合帧间差分法对所获取的原视频序列进行运动目标检测,得到含有运动目标的关键视频序列;使用全局特征峰值信噪比对关键视频序列进行关键帧粗提取得到候选关键帧序列;使用峰值信噪比建立候选关键帧序列的全局相似度,使用SURF特征点建立候选关键帧序列的局部相似度,加权融合两者获取全局相似度,并利用综合相似度对候选关键帧序列进行自适应关键帧提取,最终得到目标关键帧序列。本发明提供的视频关键帧提取方法能有效提取视频关键帧,明显减少视频数据的冗余信息,简洁表达视频的主要内容,而且该算法复杂度不高,适用于监控视频关键帧的实时提取。
-
公开(公告)号:CN107463917A
公开(公告)日:2017-12-12
申请号:CN201710703543.3
申请日:2017-08-16
Applicant: 重庆邮电大学
CPC classification number: G06K9/00275 , G06K9/00288 , G06K9/46 , G06K9/6247 , G06K2009/4666
Abstract: 本发明请求保护一种基于改进的LTP与二维双向PCA融合的人脸特征提取方法,该方法包括步骤:S1,建立中心像素与邻域像素权值和的差值函数等式来求得中心像素与邻域像素的统计特征;S2,建立自适应梯度下降迭代函数计算出使差值等式最小的权值系数来定义IALTP算子的阈值;S3,将局部区域像素权重的均值和标准差作为IALTP的三种模式的编码方式;S4,将人脸图像经过二维双向PCA在行、列方向上求出投影矩阵,然后建立联合映射得到人脸图像的全局特征信息;S5,利用融合局部特征和全局特征的方式,提出了将IALTP与二维双向PCA相融合的算法。本发明可获得较高识别率、能够对光照和随机噪声具有较强的鲁棒性。
-
公开(公告)号:CN103473294B
公开(公告)日:2017-01-11
申请号:CN201310396166.5
申请日:2013-09-03
Applicant: 重庆邮电大学
Abstract: 本发明公开了一种基于MSVM脑电信号特征分类的方法,该方法涉及脑机接口技术的特征分类与识别控制领域。本发明本章中采用支持向量机对脑电信号进行特征分类,针对现有支持向量机算法在参数选择上的问题,提出了改进的参数寻优方法。为了达到多分类的目的,在二分类的基础上对多分类支持向量机的原理及结构进行了探索。通过分析比较后选择了二叉树形式的多分类支持向量机进行多特征分类,并在离线环境下对改进的参数寻优算法进行了实验验证。
-
公开(公告)号:CN105333879A
公开(公告)日:2016-02-17
申请号:CN201510925023.8
申请日:2015-12-14
Applicant: 重庆邮电大学
IPC: G01C21/32
CPC classification number: G01C21/32
Abstract: 本发明公开了一种同步定位与地图构建方法,该方法包括以下步骤:S1,初始化系统状态:当t=0时,根据机器人运动模型先验概率p(x0)选取N个粒子,记为,i=1,2,…,N,N为正整数,每个粒子对应的权重为;S2,计算优化的混合提议分布;S3,在该提议分布中采样粒子;S4,计算并更新权重;S5,当有效粒子数Neff小于预先设定的阈值Nth时,进行重采样;S6,更新地图,返回步骤S2。本发明能够保持粒子多样性,在不同环境下能在线创建高精度的2-D栅格地图。
-
公开(公告)号:CN104570731A
公开(公告)日:2015-04-29
申请号:CN201410733412.6
申请日:2014-12-04
Abstract: 本发明公开了一种基于Kinect的无标定人机交互控制系统及方法,该系统包括人体骨骼信息获取、计算机软件系统、机械臂,人体深度图像信息获取主要由Kinect传感器完成。计算机软件系统运用骨骼追踪技术处理获取的景深数据,建立人体20个骨骼点的3D坐标。机械臂的控制系统获取计算机系统转换发出的控制指令,控制末端执行器跟随手部运动,实现人手对机械臂末端执行器的实时引导。本发明构建手部相对于髋骨中心与末端执行器相对于机械臂基座的运动映射关系进行主从控制,实现人手与机器臂的实时交互。实验结果表明该系统能够很好的完成手部跟踪和主从控制任务,具有较高的实时性和交互性。
-
公开(公告)号:CN104463100A
公开(公告)日:2015-03-25
申请号:CN201410623938.9
申请日:2014-11-07
Applicant: 重庆邮电大学
CPC classification number: G06K9/00288 , G06K9/00308
Abstract: 本发明请求保护一种基于面部表情识别的智能轮椅人机交互系统及方法,涉及生物学、心理学、计算机视觉、模式识别和人工智能等领域。本发明通过几何模型匹配算法自动定位到面部特征集中有效的眉毛、眼睛、嘴巴区域,然后对其分别进行ASM特征点的定位、将定位的特征点像素与Gabor小波核函数进行卷积运算以实现对面部表情特征的提取;进而Adaboost算法迭代训练表情特征以得到表情分类模型;采用此表情分类模型实现对输入表情序列的分类识别,将其与预先定义的控制指令作比较,从而实现面部表情识别对智能轮椅的交互控制。其中,对面部表情进行特征提取时,本发明大大提高了面部表情的实时识别,从而大大提高与智能轮椅的实时交互。
-
公开(公告)号:CN104440926A
公开(公告)日:2015-03-25
申请号:CN201410749087.2
申请日:2014-12-09
Applicant: 重庆邮电大学
IPC: B25J13/08
Abstract: 本发明涉及一种基于Kinect的机械臂体感远程控制方法及系统,属于计算机视觉控制技术领域。该方法包括以下步骤:1)在客户端使用微软提供的Kinect作为传感器,实时检测人体手臂骨骼位置的变化;2)客户端PC机将采集到的数据进行分析处理,将处理的结果作为控制命令封装成控制字的数据格式,并通过Socket通信方式将控制字发送给服务器端;步3)服务器对收到的控制字进行数据解析,并将解析结果通过串口转发至单片机;4)单片机接收到数据后,产生PWM脉宽,输出控制相应舵机,最终实现以体感远程的方式来控制机械臂。在本方法中,采用非接触式的控制方式,利用Internet的网络设施降低人力成本,人们在任何能够链接到Internet的地方即可实现对机械臂的远程控制,而不需要直达现场。
-
公开(公告)号:CN104306118A
公开(公告)日:2015-01-28
申请号:CN201410623906.9
申请日:2014-11-07
Applicant: 重庆邮电大学
Abstract: 本发明请求保护一种基于智能手机的智能轮椅椅上家庭监控系统,本发明以智能轮椅所处的家居环境为目标,确定环境安全与人体健康的监测因素,依据各个监测因素的特点选取基于ZigBee技术的无线传感器网络,进行环境安全以及人体健康指数监测,根据危险信息的情况进行报警;提出并设计一种基于ZigBee和蓝牙技术的互补性网关,有效的简化移动通信终端设备之间的通信,解决ZigBee网络与移动网络的互联互通;实现了远端智能手机终端在远程手机视频监视的辅助下,对家中智能轮椅的远程电话语音控制,解决了与智能轮椅远程人机交互困难的问题,最后达到了通过智能手机终端对家中智能轮椅远程监控的目的。
-
-
公开(公告)号:CN103903632A
公开(公告)日:2014-07-02
申请号:CN201410130892.7
申请日:2014-04-02
Applicant: 重庆邮电大学
IPC: G10L21/0272
Abstract: 本发明请求保护一种多声源环境下基于听觉中枢系统的语音分离方法,涉及到数字信号处理领域。本发明解决了绝大多数的语音识别方法都只能在低噪声和单声源的环境下使用的局限性,为了能够在多声源的噪声环境下进行语音识别需要首先实现语音分离,本发明基于听觉中枢系统的语音分离方法,外周听见模型完成对语音信号的多频谱分析,重合神经元包括通用突触模型和通用细胞模型,完成对ITD和ILD的信息整合,并且在脑下丘细胞模型中完成语音的分离,实验表明该方法具有较好的鲁棒性。
-
-
-
-
-
-
-
-
-