-
公开(公告)号:CN105682176B
公开(公告)日:2019-03-05
申请号:CN201610033588.X
申请日:2016-01-19
Applicant: 南京邮电大学
Abstract: 本发明公开了基于买卖模型及两层优化的节点激励方法,该方法首先设定无线泛在环境下的多网络、多终端的通信场景,拥塞网络小区A中存在业务需求速率很高的节点s,节点s附近空闲网络小区集为:Γ={k1,k2,…,km},对应的接入点集为D={d1,d2,…,dm},其中m代表空闲网络小区数目,ki∈Γ对应的中继节点集为Ri={ri1,ri2,…,rin}。该方法结合无线泛在环境泛在网络、泛在终端的特点,根据无线通信环境构建业务需求节点与中继节点之间的买卖模型,实现激励中继节点协作转发的目的;在激励中继节点的基础上,通过两层优化模型达到业务需求节点以最低激励价格满足其业务速率要求的目标。
-
公开(公告)号:CN108564967A
公开(公告)日:2018-09-21
申请号:CN201810208675.3
申请日:2018-03-14
Applicant: 南京邮电大学
Abstract: 本发明提出一种面向哭声检测系统的Mel能量声纹特征提取方法,本发明的方法基于声纹识别系统中常用的Mel倒谱系数特征,进行深入研究,发现在Mel频谱域,哭声信号Mel能量分布范围以及振荡程度与其他音频信号有较高区分度;为此,针对能量曲线分布范围差异性,提出Mel对数能量波动特征;针对能量曲线振荡差异性,提出Mel对数能量振荡特征。本发明提出的声纹特征提取方法为哭声检测系统提供了性能良好的特征提取解决方案,对哭声检测系统的性能提升有很大帮助。
-
公开(公告)号:CN105468360B
公开(公告)日:2018-09-21
申请号:CN201510791453.5
申请日:2015-11-17
Applicant: 南京邮电大学
IPC: G06F9/44
Abstract: 本发明提出了一种面向第三方音频播放器的数据截取方法,从Android系统Native层的音频核心AudioFlinger入手,通过新创建的协同工作子线程与标准Android音频系统线程交互合作形成完备的数据截取闭环,在准确截取任意第三方音频播放器音频数据的同时又能保持对第三方音频播放器透明。本发明提出的一种面向第三方音频播放器的数据截取方法,通过软件方法加以实现,具有良好的可移植性与向后兼容性。
-
公开(公告)号:CN108549855A
公开(公告)日:2018-09-18
申请号:CN201810280722.5
申请日:2018-04-02
Applicant: 南京邮电大学
Abstract: 面向智能家居场景的实时人形检测方法,包括如下步骤:S1、预处理一张无人物的家居场景图像作为背景图;S2、预处理视频流中的每一帧图像,获取当前帧处理后的图像;S3、通过背景减除法对当前帧处理后的图像和预处理后的背景图进行处理,获人形所在区域的图像;S4、人形所在区域的图像中的每个像素的灰度值与设定好的阈值进行比较,获取掩码图,利用矩形拟合掩码图,获取人形图像;S5、分离人形图像的红色、绿色、蓝色通道图像,获取该人形图像的HOG特征;S6、通过SVM对人形图像的HOG特征进行训练,获取人形模型。该方法通过背景减除法分割人形图形,再利用矩形框拟合掩码图,提取人形图像的HOG特征,训练人形模型,可以快速准确的检测人形图像。
-
公开(公告)号:CN108549841A
公开(公告)日:2018-09-18
申请号:CN201810233464.5
申请日:2018-03-21
Applicant: 南京邮电大学
Abstract: 本发明涉及一种基于深度学习的老人跌倒行为的识别方法,基于卷积神经网络与长短时记忆网络构建深度神经网络,使用长短时记忆网络对视频进行建模,通过卷积神经网络提取图像特征,LSTM将底层CNN的输出连接起来作为下一时刻的输入,并最终使用softmax分类器对图像进行识别判断。本发明够针对人体行为通过自适应地选择区域或位置的序列并且仅以图像或视频中高分辨率处理所选择的区域提取信息,将其运用于老人跌倒行为的识别工作中,能够有效识别出老人的跌倒行为,提高行为识别的准确性。
-
公开(公告)号:CN108388885A
公开(公告)日:2018-08-10
申请号:CN201810222865.0
申请日:2018-03-16
Applicant: 南京邮电大学
Abstract: 本发明公开了一种面向大型直播场景的多人特写实时识别与自动截图方法,具体为:将人脸大小、清晰度以及人脸位置分别作为截图的第一、二、三指标,首先实时获取直播视频的当前视频帧图像,检测所述视频帧图像中的人脸获得人脸区域并进行跟踪,然后对人脸区域的人脸大小、清晰度以及位置依次进行评估,进而选取符合截图标准的人脸图像,并将当前视频帧图像截图保存,送入人脸识别模块进行识别,输出识别结果。该发明可应用在大型直播场景下对视频中的多人特写进行识别与截图,当满足截图指标时自动截图保存,确保获得质量更佳的截图。
-
公开(公告)号:CN108345867A
公开(公告)日:2018-07-31
申请号:CN201810193484.4
申请日:2018-03-09
Applicant: 南京邮电大学
Abstract: 面向智能家居场景的手势识别方法,包括如下步骤:S1、对初始图像进行预处理;S2、将预处理后的图像从RGB颜色空间转化为HSV颜色空间,转化后的图像中的每个像素与肤色阈值进行比较,获取掩码图;利用矩形拟合掩码图,截取矩形部分,获取手势图像;S3、分离手势图像的红、绿、蓝三色通道图像,将手势图像分成9个单元,计算各单元中每个像素的LBP值,对每个单元的LBP值进行归一化,统计每个单元的LBP分布直方图,再串联成一个图像LBP分布直方图,获取图像的LBP特征;S4、通过SVM对LBP特征进行训练,获取手势模型;本发明将图像转化为HSV颜色空间进行手势图像分割,再利用矩形框拟合掩码图,提取手势的LBP特征,训练手势模型,可以快速准确的定位和识别图像中手势。
-
公开(公告)号:CN108269442A
公开(公告)日:2018-07-10
申请号:CN201810035423.5
申请日:2018-01-15
Applicant: 南京邮电大学
Abstract: 本发明涉及一种基于VR的教学系统及控制方法,首先获取各从VR设备端的开机状态,从而统计出缺席的学生人数,然后在准备期间,提前将教学视频数据传递给各个从VR设备端,系统读取主VR设备端播放视频的进度,传递给各个从VR设备端,以此来控制各个从VR设备端的视频显示进度;当对教师讲解有疑惑时,或者有事情需要向老师反映时,从VR设备端将发送反馈信息给主VR设备端,从而教师根据学生的反馈调节教学进程;使VR在基础教学中也能有很大的作用,同时解决VR教育在交互方面的缺陷,更好将VR与教育结合更完美,更加提高学生的学习兴趣和学习能力。
-
公开(公告)号:CN108063802A
公开(公告)日:2018-05-22
申请号:CN201711246137.5
申请日:2017-12-01
Applicant: 南京邮电大学
IPC: H04L29/08
Abstract: 本发明公开了一种基于边缘计算的用户位置动态性建模优化方法,考虑5G环境下边缘计算节点的密度和边缘计算节点的优点,利用马尔科夫模型和用户访问位置关联性模型对用户访问位置进行预测。首先本发明中的边缘计算节点的位置是可由自身得到的,并且自身具有计算、存储、定位功能,从而使用户位置预测速度更快,效率更高。本发明产生的基于边缘计算的用户动态性建模优化简单而易于实现,具有很好的应用前景。
-
公开(公告)号:CN107885323A
公开(公告)日:2018-04-06
申请号:CN201710857662.4
申请日:2017-09-21
Applicant: 南京邮电大学
CPC classification number: G06F3/011 , G06F3/162 , G06F2203/012 , G06K9/6223 , G06K9/6297
Abstract: 本发明涉及一种基于机器学习的VR场景沉浸控制方法,使用基于隐马尔科夫模型的用户位置学习算法,预测用户的位置,进而通过VR场景音频输出设备指向用户算法,根据用户位置,调整VR场景音频输出设备的指向,进而达到调整声源指向的目的,并通过实时调节音量算法,解决距离衰减的问题,从而实现用户在空间随机移动时,在空间内任何一个位置听到的声音效果完全相同,完美的解决了这个问题,为VR用户提供了更多的自由度。
-
-
-
-
-
-
-
-
-