一种5G混合场景下面向QoE的双层匹配博弈方法

    公开(公告)号:CN107302801B

    公开(公告)日:2020-11-06

    申请号:CN201710355378.7

    申请日:2017-05-19

    Inventor: 张晖 姚天

    Abstract: 本发明公开了一种5G混合场景下面向QoE的双层匹配博弈方法,其特征在于:在5G场景下的一个小蜂窝基站SBS,混合共存有C个蜂窝用户CU和D个D2D用户DU;所述方法基于用户体验质量QoE为优化指标,实现CU和信道之间、DU和资源块之间达到稳定的匹配,包括:一、CU和信道基于对方个体分别建立偏好列表,采用考虑已存匹配的多对一匹配博弈算法,来进行蜂窝内部的信道与CU之间的匹配;二、DU和资源块基于对方个体分别建立偏好列表,利用考虑已存匹配的多对多匹配博弈算法,为蜂窝内部的DU分配资源块进行通信,三、通过不断的迭代,更新CU的信道分配向量和DU与资源块的匹配结果,最终达到稳定的双边匹配。本发明的频谱分配方案,简单实用,具有良好的应用前景。

    面向游戏直播场景的精彩时刻实时识别与预录制方法

    公开(公告)号:CN109672899B

    公开(公告)日:2020-11-03

    申请号:CN201811523869.9

    申请日:2018-12-13

    Inventor: 张晖 叶子皓

    Abstract: 本发明揭示了一种面向游戏直播场景的精彩时刻实时识别与预录制方法,包括如下步骤:S1、直播开始后,设置视频缓存池,对直播视频流进行缓存;S2、对直播内容进行区域划分;S3、为各区域设置各自的打分模式及精彩程度加权系数,使用精彩时刻识别系统对各个区内的精彩程度打分;S4、通过加权统计后得到当前画面的精彩得分,识别精彩时刻;S5、识别到精彩时刻后触发预录制系统,录制直播内容,直至达到录制结束标准后停止录制并储存已录制内容。本发明通过对人工智能及图像识别技术的合理利用,免除了现有技术中人工剪辑和后期制作的作业负担,克服了视频制作过程中对人工操作的依赖,降低了制作成本。

    边缘网络环境下基于XGBoost算法的VOD业务缓存优化方法

    公开(公告)号:CN111629217A

    公开(公告)日:2020-09-04

    申请号:CN202010311154.8

    申请日:2020-04-20

    Abstract: 本发明公开了一种边缘网络环境下基于XGBoost算法的VOD业务缓存优化方法,包括如下步骤:采集视频数据;以平均访问量为预测目标,用XGBoost算法进行回归建模获得预测模型;利用预测模型对平均访问量进行预测;根据预测结果建立缓存优化模型;使用背包算法求解优化模型,得到最终缓存方案。本发明考虑到边缘服务器需要处理大量的视频信息,以及机器学习在大数据处理中出色的数据分析能力,从而使得边缘服务器最大限度地减少业务访问时延,提高了边缘服务器的缓存效率,并且该方案非常简单而易于实现,具有很好的应用前景。

    一种基于双流卷积神经网络的跌倒行为分析检测方法

    公开(公告)号:CN111626109A

    公开(公告)日:2020-09-04

    申请号:CN202010305522.8

    申请日:2020-04-17

    Abstract: 本发明公开了一种基于双流卷积神经网络的跌倒行为分析检测方法,首先,提取行人轮廓图像和运动历史图构成跌倒数据集;其次,在跌倒数据集上,使用神经网络搜索模型确定最优的双流卷积神经网络结构,空间流通道输入轮廓图像,时间流通道输入运动历史图;最后,通过融合模块进行跌倒判断。本发明采用的网络结构是精度与延迟之间权衡最优的网络结构,大大较少了冗余结构带来的计算量,减少了硬件设备成本,而且可以在智能终端上实现跌倒行为的分析检测,具有广阔的市场前景。

    面向网络直播场景的用户言论语义分析方法

    公开(公告)号:CN109657241A

    公开(公告)日:2019-04-19

    申请号:CN201811523923.X

    申请日:2018-12-13

    Inventor: 张晖 李吉媛

    Abstract: 本发明揭示了一种面向网络直播场景的用户言论语义分析方法,包括如下步骤:S1、实时获取网络直播平台直播间内用户输入区的内容,并进行预处理;S2、将预处理过的内容进行分词处理,保持词序列顺序不变;S3、根据语料词典得到每个词的词向量,进而得到用户输入内容的向量表示;S4、构建并训练LSTM型双向RNN语义分析分类器模型;S5、依据S4中建立的模型判断用户输入内容是否包含不良信息,若不包含则正常发送,否则提醒用户并禁止发送。本发明可以在无人工参与的情况下自动地完成对用户言论的语义分析、从源头上对网络直播平台内的用户言论进行监督,不仅能够保证监督的实时性和有效性,而且也节约了人工成本。

    面向直播场景的实时字幕翻译及系统实现方法

    公开(公告)号:CN109525787A

    公开(公告)日:2019-03-26

    申请号:CN201811523195.2

    申请日:2018-12-13

    Inventor: 张晖 丁一全

    Abstract: 本发明揭示了一种面向直播场景的实时字幕翻译及系统实现方法,包括如下步骤:S1、使用训练数据集训练深度卷积神经网络;S2、对输入的每帧语音进行傅里叶变换,将时间和频率作为图像的两个维度,获取输入的语音信号的语谱图;S3、将获取的语谱图输入已经训练好的深度卷积神经网络,得到与语音信号相对应的文本数据;S4、将所述文本数据实时显示在屏幕上。本发明能够对每个人的讲话进行实时翻译,并及时显示在屏幕上,从而有效地提升了转写的效率,为观众带来了更为优异的用户体验。

    面向大型直播场景的单人特写实时识别与自动截图方法

    公开(公告)号:CN108491784A

    公开(公告)日:2018-09-04

    申请号:CN201810222737.6

    申请日:2018-03-16

    Inventor: 张晖 杨纯

    Abstract: 本发明公开了一种面向大型直播场景的单人特写实时识别与自动截图方法,具体如下:实时获取直播视频当前的视频帧图像,检测所述视频帧图像中是否存在人脸;若所述视频帧图像中存在人脸,则采用人脸检测模块获得人脸区域,然后对人脸区域进行人脸大小、清晰度、位置以及角度综合评估,进而选取最优人脸,并将含有最优人脸的当前视频帧图像进行截图保存;最后将最优人脸图像送入人脸识别模块进行识别,输出识别结果。该发明可应用在大型直播场景下对视频中的单人特写进行识别与截图,当满足截图指标时自动截图保存;同时截图指标不仅可以得到质量更佳的截图,还避免了人脸识别中产生大量的重复人脸快照而带来的后端服务器及计算工作量大的问题。

    面向家居环境的智能哭声检测方法

    公开(公告)号:CN108461091A

    公开(公告)日:2018-08-28

    申请号:CN201810208673.4

    申请日:2018-03-14

    Inventor: 张晖 毛小旺

    Abstract: 本发明揭示了一种面向家居环境的智能哭声检测方法,本方法首先建立样本数据库,并对样本库中的数据进行分类训练GMM模型,再以GMM模型各个分量的均值参数,作为SVM模型的训练样本,训练出混合识别GMM-SVM模型。本方法可在智能终端本地进行哭声检测,摆脱对服务端的依赖,大大缩短了检测周期,提升用户的业务体验。此外,本方法中的模型充分考虑了同类音频数据之间的相似性和不同类数据之间的差异性,比单模型判决系统具有更佳的识别准确率,且识别速率也能极大提升,为哭声检测产品中提供了优秀的解决方案。

    一种基于深度学习的人脸表情识别方法

    公开(公告)号:CN108268859A

    公开(公告)日:2018-07-10

    申请号:CN201810128013.5

    申请日:2018-02-08

    Inventor: 张晖 杨纯

    Abstract: 本发明公开了一种基于深度学习的人脸表情识别方法,首先将获得的视频信号分解为图像序列,建立肤色模型进行肤色检测并去除背景区域;然后采用空间肤色模型的人脸检测算法,训练人脸分类器并对候选肤色区域进行人脸检测,得到人脸区域;接着对人脸区域图像进行仿射变换、校正等预处理得到人脸表情图像;最后从表情图像中提取LBP特征,用深度信念网络对其进行学习和训练,得到更高层次的抽象特征,将其作为分类器来进行人脸表情识别。该发明可以被广泛应用在公共安全、心理测谎,智能家居等场景,计算机可以通过识别表情来为人类提供更加人性化的服务。有着非常广泛的应用场景以及非常好的应用前景。

Patent Agency Ranking