-
公开(公告)号:CN112381036B
公开(公告)日:2024-10-15
申请号:CN202011343361.8
申请日:2020-11-26
Applicant: 厦门大学
IPC: G06V40/16 , G06V10/764 , G06V10/82 , G06N3/0464 , G06N3/0442 , G06N3/082
Abstract: 一种应用于刑侦的微表情与宏表情片段识别方法,步骤一:采集犯罪嫌疑人视频信息;步骤二:将视频数据转换成图像数据,并进行人脸定位;步骤三:将人脸视频序列数据分别进行微表情片段和宏表情片段的发现;步骤四:然后将发现的微表情和宏表情片段进行相应的微表情和宏表情的识别,得出结果。本发明通过对犯罪嫌疑人视频中发现微表情和宏表情片段并对其进行识别,可以帮助更好的捕捉宏微表情序列,消除了时间,光照,和头部移动的对结果的影响,有较高的鲁棒性和泛化能力,提高预测精度。
-
公开(公告)号:CN113257279A
公开(公告)日:2021-08-13
申请号:CN202110316240.2
申请日:2021-03-24
Applicant: 厦门大学
Abstract: 一种基于GTCN的实时语音情感识别方法及应用装置,涉及生物特征识别技术领域,方法包括:步骤一、搜集一定数量的虚拟现实交互式语音游戏玩家的语音数据,对提取出来的数据进行预处理,包括端点检测和分帧加窗的操作;步骤二、提取预处理过后的语音数据的组合特征作为输入数据;步骤三、构建基于GTCN的模型,将输入数据经过训练,判断输入语音的情感;步骤四、结合输入数据和模型中的情感分类,与识别对象进行交互。相比其他语音情感识别方法,本发明实现了更高的准确率,在多个数据集中都表现出更佳的情感分类效果和更好的鲁棒性,并且能够以更高的效率和更低的内存进行训练,是一种高效稳定的语音情感识别方法。
-
公开(公告)号:CN113095707A
公开(公告)日:2021-07-09
申请号:CN202110442082.5
申请日:2021-04-23
Applicant: 厦门大学
Abstract: 本发明公开了一种基于区块链的应急物资管理方法,所述方法包括:接收到物资采集方发布应急物资的物资采集请求,其中,所述物资采集请求包括应急物资清单和应急地区;基于所述采集请求通过募集和/或采购的方式获取目标应急物资;检验所述目标应急物资通过后,设置对应所述目标应急物资的防伪识别码;根据所述目标应急物资的始发站点生成到达所述应急地区的物流路线,并存储于所述区块链中;确认与所述物流路线所关联的每一物流节点的通行状态后,基于所述始发站点执行运送;实时跟踪所述物流节点的所述通行状态,或根据交通路况和/或天气情况自动更新所述物流路线。能够实现有效的进行物资物流全过程信息记录、追踪和监督,以进行物资的筹集的合理调配。
-
公开(公告)号:CN110175578B
公开(公告)日:2021-06-22
申请号:CN201910456807.9
申请日:2019-05-29
Applicant: 厦门大学
Abstract: 应用于刑侦的基于深度森林的微表情识别方法,涉及生物特征识别技术领域。借助专业的摄像机,对犯罪嫌疑人在讯问过程中的面部表情进行录像,将视频数据输入到客户端;将视频数据通过逐帧扫描的方法,识别出犯罪嫌疑人的脸部,截取脸部其出现的微表情,从起始、峰值到结束;将微表情图像数据进行归一化,检测人脸的关键点;将选取的关键点作为中心像素点,用DCP‑TOP方法,从XY、XT、YT三个正交平面进行编码,提取图像的纹理特征;将纹理特征向量输入到系统预先训练好的深度森林模型里进行分类;将分类结果返回到客户端界面,为侦讯人员正确把握嫌犯供述的真伪提供了帮助。有较高的鲁棒性和泛化能力。预测精度高,分类效率高。
-
公开(公告)号:CN111816157A
公开(公告)日:2020-10-23
申请号:CN202010590726.0
申请日:2020-06-24
Applicant: 厦门大学
IPC: G10L13/02
Abstract: 本发明提供了一种基于语音合成的乐谱智能视唱方法和系统,所述方法包括:步骤一、数据准备,输入并解析abc乐谱,得出具体一个abc乐谱中每个音符的音高以及时长信息;步骤二、训练参数,制作训练数据时生成了长度5个以内的音符,即在处理一个完整的abc乐谱时,将其所有音符划分成5个音符一组;步骤三、合成音频拼接,具体包括乐谱分段识别、片段拼接、波形对齐与空白段填充三个子步骤;步骤四、对合成的音频进行可视化展示。本发明解决了训练过程计算量大、直接拼接时拼接痕迹会比较明显、拼接杂音等技术问题,生成的音频和原数据的效果对比很难分辨出差别。
-
公开(公告)号:CN109584904A
公开(公告)日:2019-04-05
申请号:CN201811580476.1
申请日:2018-12-24
Applicant: 厦门大学
Abstract: 应用于基础音乐视唱教育的视唱音频唱名识别建模方法,涉及视唱音频唱名识别。提供可帮助用户提升自己音乐视唱方面能力的一种应用于基础音乐视唱教育的视唱音频唱名识别建模方法。唱名识别效果可以达到专业的识别的水平,识别精准率较高;唱名识别运算效率较高,可以在3~5s之内完成唱名识别过程,达到工业应用要求;唱名识别抗噪能力较强,在有一定背景噪声的情况下也能较好的识别。
-
公开(公告)号:CN119963679A
公开(公告)日:2025-05-09
申请号:CN202510101392.9
申请日:2025-01-22
Applicant: 厦门大学
Abstract: 一种基于AIGC的影视角色及场景图生成方法及系统,涉及人工智能。获取用户输入的剧本文字内容,提取角色描述及场景描述;通过大语言模型将角色描述及场景描述转换成标准格式的Prompt并输入Stable Diffusion,生成基准角色图或基准场景图。对于角色一致性:根据IP‑Adapter身份保持模块,输入基准参考图和文字描述生成同一角色的不同状态。对于场景一致性:从基准场景图中提取边缘轮廓信息,将轮廓信息、文字描述作为controlnet的输入,生成不同天气、光照的状态。提升AIGC生成的角色一致性和场景一致性,高效生成同一角色同一场景下不同状态,为生成角色小传、勘景选景提供参考。
-
公开(公告)号:CN119962496A
公开(公告)日:2025-05-09
申请号:CN202510101736.6
申请日:2025-01-22
Applicant: 厦门大学
IPC: G06F40/166 , G06N5/04
Abstract: 一种基于大语言模型的AI剧本生成、元素拆解的方法及系统,涉及计算机技术领域。旨在通过人工智能技术辅助剧本创作与拆解,提高电影制作效率。在剧本生成方面,用户通过输入故事简要概述及故事类型、基调、结构等关键信息,结合大语言模型提供的灵感与建议,快速搭建故事骨干,并逐步完善为成篇故事。用户可灵活修订,实现人机高效协同。在剧本拆解方面,系统利用大语言模型及预置提示词,自动拆解剧本中的人物、场景、道具及服装等元素,形成详尽描述,并去除非法输入与冗余信息,最终输出标准化Excel表格文件,便于剧组高效管理与利用。融合人类创作技巧与AI智能辅助,为电影制作带来降本增效的新途径,推动影视行业的智能化发展。
-
公开(公告)号:CN119893206A
公开(公告)日:2025-04-25
申请号:CN202510100849.4
申请日:2025-01-22
Applicant: 厦门大学
IPC: H04N21/44 , H04N21/439 , H04N21/854 , G06N5/04
Abstract: 一种基于Agent协作的AIGC长视频稳定生成方法及系统,涉及计算机技术领域。包括如下步骤:获取用户输入的剧本文字内容;采用预置的prompt预训练“剧组工作人员”Agent;将用户输入的剧本文字内容转换成分镜脚本,提取对话;从用户输入的剧本提取角色和场景的描述;从角色和场景的描述转换成Stable Diffusion的标准prompt;生成角色和场景的设定图;根据角色描述从音色库中选择符合角色设定的音色;音色克隆预训练模型从音色和对话文字生成对话音频;根据对话音频和角色图生成对话的视频;根据分镜脚本和对话视频剪辑成片。比起现有方法极大地提升AIGC长视频生成的角色一致性和视频质量稳定性。
-
公开(公告)号:CN114519796B
公开(公告)日:2025-03-07
申请号:CN202210101620.9
申请日:2022-01-27
Applicant: 厦门大学
IPC: G06V10/75 , G06V10/74 , G06V10/764 , G06V10/774 , G06V10/82 , G06V20/10 , G06N3/045 , G06N3/0464 , G06N3/08 , B25J13/08
Abstract: 本发明提供了机器人触觉感知技术领域的一种基于深度神经网络的机器人材质识别方法及系统,方法包括如下步骤:步骤S10、机器人通过安装于机械臂末端的电子皮肤,在不同工况下分批次采集大量的材质图像;步骤S20、基于结构相似性计算各批次的所述材质图像之间的相似度,基于各所述相似度构建数据集;步骤S30、基于深度神经网络创建一材质识别模型,利用所述数据集对材质识别模型进行训练;步骤S40、机器人利用训练后的所述材质识别模型,对新的工况下电子皮肤采集的图像进行实时的材质识别,并实时输出识别结果。本发明的优点在于:极大的提升了机器人材质识别的准确性、稳定性以及泛化能力。
-
-
-
-
-
-
-
-
-