-
公开(公告)号:CN114882553B
公开(公告)日:2024-07-12
申请号:CN202210422919.4
申请日:2022-04-21
Applicant: 厦门大学
IPC: G06V40/16 , G06V10/82 , G06V10/774 , G06V10/764 , G06V10/40 , G06V10/80 , G06N3/0464 , G06N3/08 , G06F17/16 , G06F17/18
Abstract: 本发明提供了表情识别技术领域的一种基于深度学习的微表情识别方法及系统,方法包括:步骤S10、交互型机器人通过3D摄像头获取图像流;步骤S20、交互型机器人通过人脸识别算法检测所述图像流中的人脸并进行截取,获取人脸数据流并上传服务器;步骤S30、服务器从所述人脸数据流中提取包括人脸动态数据和人脸静态数据的人脸数据组;步骤S40、服务器基于软编码输出创建一微表情识别模型,并对所述微表情识别模型进行训练;步骤S50、服务器将所述人脸数据组输入训练后的微表情识别模型得到微表情信息,并将所述微表情信息反馈给交互型机器人,交互型机器人基于接收的所述微表情信息进行互动响应。本发明的优点在于:极大的提升了微表情识别的准确率。
-
公开(公告)号:CN114927239B
公开(公告)日:2024-07-02
申请号:CN202210422918.X
申请日:2022-04-21
Applicant: 厦门大学
IPC: G16H70/40 , G16H50/70 , G06F18/2415
Abstract: 本发明提供了机器学习技术领域的一种应用于药物分析的决策规则自动生成方法及系统,方法包括:步骤S10、获取药物数据,提取药物数据的药物特征并构建数据集;步骤S20、计算数据集中各药物特征的方差、数据复杂度以及排列重要性,基于方差、数据复杂度以及排列重要性筛选重要特征;步骤S30、从重要特征中筛选包含n(n=1,2,3,…)个特征的特征子集,并计算各特征子集的排列重要性;步骤S40、按排列重要性的顺序在各特征子集上搜索使预测结果发生翻转时,各特征子集所需的最小特征变化量,进而生成类别边界;步骤S50、通过贝叶斯公式将类别边界描述成决策规则。本发明的优点在于:能为任意机器学习模型(包括不可解释的黑盒模型)生成高度可解释的决策规则。
-
公开(公告)号:CN114927239A
公开(公告)日:2022-08-19
申请号:CN202210422918.X
申请日:2022-04-21
Applicant: 厦门大学
Abstract: 本发明提供了机器学习技术领域的一种应用于药物分析的决策规则自动生成方法及系统,方法包括:步骤S10、获取药物数据,提取药物数据的药物特征并构建数据集;步骤S20、计算数据集中各药物特征的方差、数据复杂度以及排列重要性,基于方差、数据复杂度以及排列重要性筛选重要特征;步骤S30、从重要特征中筛选包含n(n=1,2,3,…)个特征的特征子集,并计算各特征子集的排列重要性;步骤S40、按排列重要性的顺序在各特征子集上搜索使预测结果发生翻转时,各特征子集所需的最小特征变化量,进而生成类别边界;步骤S50、通过贝叶斯公式将类别边界描述成决策规则。本发明的优点在于:能为任意机器学习模型(包括不可解释的黑盒模型)生成高度可解释的决策规则。
-
公开(公告)号:CN114882553A
公开(公告)日:2022-08-09
申请号:CN202210422919.4
申请日:2022-04-21
Applicant: 厦门大学
IPC: G06V40/16 , G06V10/82 , G06V10/774 , G06V10/764 , G06V10/40 , G06V10/80 , G06K9/62 , G06N3/04 , G06N3/08 , G06F17/16 , G06F17/18
Abstract: 本发明提供了表情识别技术领域的一种基于深度学习的微表情识别方法及系统,方法包括:步骤S10、交互型机器人通过3D摄像头获取图像流;步骤S20、交互型机器人通过人脸识别算法检测所述图像流中的人脸并进行截取,获取人脸数据流并上传服务器;步骤S30、服务器从所述人脸数据流中提取包括人脸动态数据和人脸静态数据的人脸数据组;步骤S40、服务器基于软编码输出创建一微表情识别模型,并对所述微表情识别模型进行训练;步骤S50、服务器将所述人脸数据组输入训练后的微表情识别模型得到微表情信息,并将所述微表情信息反馈给交互型机器人,交互型机器人基于接收的所述微表情信息进行互动响应。本发明的优点在于:极大的提升了微表情识别的准确率。
-
公开(公告)号:CN114708627A
公开(公告)日:2022-07-05
申请号:CN202210186949.X
申请日:2022-02-28
Applicant: 厦门大学
IPC: G06V40/16 , G06V10/82 , G06V10/44 , G06V10/62 , G06V10/764 , G06V10/774 , G06N3/04 , G06K9/62
Abstract: 本发明公开一种应用于社交机器人的人脸微表情识别方法。步骤一:社交机器人从摄像头获取视觉输入。步骤二:社交机器人的中央处理单元对视觉输入进行人脸定位。步骤三:中央处理单元提取四种光流信息的输入组。步骤四:将输入组传入训练好的分块卷积网络中,得到分类后的微表情状态。步骤五:社交机器人的交互层根据用户不同的微表情状态来进行相应的响应。本发明设计了一个全新的基于深度特征增强的分块卷积网络,提高了微表情识别的泛化性和鲁棒性,并应用于社交机器人,使得社交机器人可以实时地根据用户的微表情状态实施不同的响应方式。
-
公开(公告)号:CN114495232A
公开(公告)日:2022-05-13
申请号:CN202210101703.8
申请日:2022-01-27
Applicant: 厦门大学
IPC: G06V40/16 , G06V40/20 , G06V20/40 , G06V10/44 , G06V10/62 , G06V10/774 , G06V10/764 , G06V10/80 , G06V10/82 , G06N3/04 , G06N3/08 , G06K9/62
Abstract: 本发明提供了动作识别技术领域的一种基于深度学习的课堂学生动作识别方法及系统,方法包括:步骤S10、对捕获的课堂视频进行剪辑得到若干个课堂子视频;步骤S20、通过人脸检测算法依次检测各课堂子视频中的人脸,进而将课堂子视频剪辑成若干个人脸子视频;步骤S30、分别提取各人脸子视频的静态特征图片以及动态特征图片,基于各静态特征图片以及动态特征图片构建训练数据集;步骤S40、基于深度学习创建一动作识别模型,利用训练数据集对动作识别模型进行训练;步骤S50、利用训练后的动作识别模型对摄像头捕捉的课堂视频进行实时的动作识别。本发明的优点在于:实现实时、准确的识别学生动作,以及时调整教学策略,进而极大的提升了教学质量。
-
公开(公告)号:CN113362857A
公开(公告)日:2021-09-07
申请号:CN202110663975.2
申请日:2021-06-15
Applicant: 厦门大学
Abstract: 一种基于CapCNN的实时语音情感识别方法及应用装置,涉及生物特征识别技术领域,所述方法包括:步骤一、搜集一定数量的自闭症儿童的语音数据,对提取出来的数据进行预处理,包括端点检测和分帧加窗的操作;步骤二、提取预处理过后的语音数据的语谱特征作为输入数据;步骤三、构建基于CapCNN的模型,将输入数据经过训练,判断输入语音的情感;步骤四、结合输入数据和模型中的情感分类,与识别对象进行交互。本发明实现了更高的准确率,相比其他语音情感识别的方法,在语音的短时识别上表现的更好,且在多个数据集中都表现出更好的鲁棒性,能够较好地把握语谱图的位置信息和整体特征,是一种高效稳定语音情感识别方法。
-
公开(公告)号:CN111816148A
公开(公告)日:2020-10-23
申请号:CN202010590728.X
申请日:2020-06-24
Applicant: 厦门大学
Abstract: 本发明提供了一种基于生成对抗网络的虚拟人声视唱方法和系统,所述方法包括:步骤一、输入abc记谱法文件和用Vocaloid制作的人声唱谱音频;步骤二、将abc文件转化为自定义格式的文本文件,将自定义文本文件和人声音频作为Tacotron-2神经网络模型的输入;步骤三、在Tacotron-2神经网络中,输入的文本文件中的字符通过512维的字符嵌入Character Embedding表示;步骤四、完成了虚拟人声波形文件的合成;步骤五、得到一段完整的虚拟人声视唱音乐。本发明用虚拟人声演唱乐谱,输出的语音节奏流畅自然,从而使得听者在聆听信息时会感觉自然,而不会感到设备的语音输出带有机械感与生涩感。
-
公开(公告)号:CN109815493A
公开(公告)日:2019-05-28
申请号:CN201910018462.9
申请日:2019-01-09
Applicant: 厦门大学
IPC: G06F17/27 , G06F16/36 , G06F16/9535
Abstract: 一种智能嘻哈音乐歌词生成的建模方法。从网易云音乐完成数据清洗工作形成嘻哈歌词语料库;生成基于语料库的主题词库;确定与每个主题语义相近的歌词作为生成结果的首句候选;使用现代汉语拼音体系的声母韵母提取每句歌词的最后1~5个字的拼音;将歌词数据使用结巴分词器的精确模式进行分词,抽取每句歌词的关键词语;将歌词输入Word2Vec模型,获取歌词对应的词向量;将获得的词向量作为训练数据,利用训练神经网络模型;利用网页的客户端界面,由神经网络输出其余的歌词;将神经网络输出的歌词输出给网页程序的接口;利用网页的客户端界面,将神经网络输出的歌词输出给网页程序的接口;生成对应的押韵词语和下一句歌词供创作者参考。
-
公开(公告)号:CN114495232B
公开(公告)日:2025-01-24
申请号:CN202210101703.8
申请日:2022-01-27
Applicant: 厦门大学
IPC: G06V40/16 , G06V40/20 , G06V20/40 , G06V10/44 , G06V10/62 , G06V10/774 , G06V10/764 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明提供了动作识别技术领域的一种基于深度学习的课堂学生动作识别方法及系统,方法包括:步骤S10、对捕获的课堂视频进行剪辑得到若干个课堂子视频;步骤S20、通过人脸检测算法依次检测各课堂子视频中的人脸,进而将课堂子视频剪辑成若干个人脸子视频;步骤S30、分别提取各人脸子视频的静态特征图片以及动态特征图片,基于各静态特征图片以及动态特征图片构建训练数据集;步骤S40、基于深度学习创建一动作识别模型,利用训练数据集对动作识别模型进行训练;步骤S50、利用训练后的动作识别模型对摄像头捕捉的课堂视频进行实时的动作识别。本发明的优点在于:实现实时、准确的识别学生动作,以及时调整教学策略,进而极大的提升了教学质量。
-
-
-
-
-
-
-
-
-