一种基于图像序列的印刷体架子鼓乐谱识别方法及系统

    公开(公告)号:CN118506384A

    公开(公告)日:2024-08-16

    申请号:CN202410617150.0

    申请日:2024-05-17

    Applicant: 厦门大学

    Abstract: 本发明提供了架子鼓乐谱识别技术领域的一种基于图像序列的印刷体架子鼓乐谱识别方法及系统,方法包括:步骤S1、获取印刷体的架子鼓乐谱图像以及对应的MusicXML文件;步骤S2、基于MusicXML文件对架子鼓乐谱图像进行数据标注;步骤S3、通过卷积神经网络技术从架子鼓乐谱图像中提取包括浅层特征以及深层特征的架子鼓乐谱图像特征;步骤S4、通过双向长短期记忆网络接收各架子鼓乐谱图像特征,基于各架子鼓乐谱图像特征捕获架子鼓乐谱的音符的时序关系以及上下文信息;步骤S5、基于时序关系以及上下文信息生成标签序列,对各标签序列进行对齐和合并;步骤S6、基于各标签序列,输出识别结果。本发明的优点在于:极大的提升了印刷体架子鼓乐谱识别精度。

    基于双注意力机制的十二导联心电信号的自动分类方法

    公开(公告)号:CN115568860B

    公开(公告)日:2024-07-02

    申请号:CN202211211126.4

    申请日:2022-09-30

    Applicant: 厦门大学

    Abstract: 本发明基于双注意力机制的十二导联心电信号的自动分类方法,获取十二导联心电图原始数据;对原始数据进行预处理;构建十二导联心电图的分类模型;使用训练完的分类模型即可进行12导联心电信号的自动分类。本发明采用并行计算的方式实现十二导联心电图的空间‑时间注意力机制的融合,对不同导联的心电信号、序列与序列之间的全局特征信息进行提取,通过CNN‑Transformer混合编码器实现双注意力机制并融合多尺度信息,可实现高精度的十二导联心电信号的分类,为临床决策提供辅助诊断依据,减轻医生工作负担。

    一种数字人视频生成方法及系统
    33.
    发明公开

    公开(公告)号:CN118196243A

    公开(公告)日:2024-06-14

    申请号:CN202410134829.4

    申请日:2024-01-31

    Applicant: 厦门大学

    Abstract: 本发明提供了数字人生成技术领域的一种数字人视频生成方法及系统,方法包括:步骤S1、对获取的各第一音频、第一视频进行预处理后构建数据集;步骤S2、从第一视频提取数字人肖像帧,对各数字人肖像帧进行3D重建得到第一表情系数、第一头部姿态系数;步骤S3、对第一音频、第一表情系数、第一头部姿态系数进行推理,得到第二表情系数、第二头部姿态系数;步骤S4、基于数字人肖像帧、第一表情系数、第一头部姿态系数、第二表情系数、第二头部姿态系数对创建的人脸渲染模型进行训练;步骤S5、获取第二音频以及第二视频输入人脸渲染模型得到若干张数字人图像,将各数字人图像合成为数字人视频。本发明的优点在于:极大的提升了数字人仿真效果。

    一种基于语音驱动的个性化人脸生成方法及系统

    公开(公告)号:CN118155259A

    公开(公告)日:2024-06-07

    申请号:CN202410134888.1

    申请日:2024-01-31

    Applicant: 厦门大学

    Abstract: 本发明提供了人脸生成技术领域的一种基于语音驱动的个性化人脸生成方法及系统,方法包括如下步骤:步骤S1、获取大量包含不同人说话场景、不同光照条件、不同姿势的视频数据,基于各所述视频数据构建数据集;步骤S2、基于深度学习创建一包括面部特征提取模块、面部图像生成模块以及人脸对齐模块的人脸生成模型;步骤S3、利用所述数据集对人脸生成模型进行训练,训练过程中不断优化所述人脸生成模型的损失函数;步骤S4、利用训练后的所述人脸生成模型生成人脸图像。本发明的优点在于:极大的提升了人脸图像生成质量。

    一种基于YOLO框架的水下目标检测方法及系统

    公开(公告)号:CN118097387A

    公开(公告)日:2024-05-28

    申请号:CN202410132947.1

    申请日:2024-01-31

    Applicant: 厦门大学

    Inventor: 姚俊峰 刘逸先

    Abstract: 本发明提供了水下目标检测技术领域的一种基于YOLO框架的水下目标检测方法及系统,方法包括:步骤S1、获取大量的水下图像,对各水下图像进行预处理以及标注后,基于各水下图像构建图像数据集;步骤S2、将图像数据集划分为训练集和验证集并存储至指定的文件路径,基于训练集和验证集分别创建对应的第一yaml文件和第二yaml文件;步骤S3、基于YOLO框架创建一水下目标检测模型,通过第一yaml文件读取训练集对水下目标检测模型进行训练,通过第二yaml文件读取验证集对水下目标检测模型进行验证;步骤S4、将待检测图像输入训练后的水下目标检测模型进行目标检测,输出目标标注图像。本发明的优点在于:极大的提升了水下目标检测的精度以及实时性。

    基于区块链的应急物资管理方法、装置以及设备

    公开(公告)号:CN113095707B

    公开(公告)日:2024-04-16

    申请号:CN202110442082.5

    申请日:2021-04-23

    Applicant: 厦门大学

    Abstract: 本发明公开了一种基于区块链的应急物资管理方法,所述方法包括:接收到物资采集方发布应急物资的物资采集请求,其中,所述物资采集请求包括应急物资清单和应急地区;基于所述采集请求通过募集和/或采购的方式获取目标应急物资;检验所述目标应急物资通过后,设置对应所述目标应急物资的防伪识别码;根据所述目标应急物资的始发站点生成到达所述应急地区的物流路线,并存储于所述区块链中;确认与所述物流路线所关联的每一物流节点的通行状态后,基于所述始发站点执行运送;实时跟踪所述物流节点的所述通行状态,或根据交通路况和/或天气情况自动更新所述物流路线。能够实现有效的进行物资物流全过程信息记录、追踪和监督,以进行物资的筹集的合理调配。

    一种基于美学的服装外观评估方法及系统

    公开(公告)号:CN116824231A

    公开(公告)日:2023-09-29

    申请号:CN202310681816.4

    申请日:2023-06-09

    Applicant: 厦门大学

    Inventor: 姚俊峰 颜彬彬

    Abstract: 本发明提供了服装设计技术领域的一种基于美学的服装外观评估方法及系统,方法包括:步骤S10、基于预设的关键词以及品牌获取大量的第一服装图像,对各第一服装图像进行预处理以构建美学分类数据集;步骤S20、获取大量的第二服装图像以及对应的美学评价,对各第二服装图像进行预处理后,基于各第二服装图像以及美学评价构建美学描述数据集;步骤S30、创建美学二分类模型、美学描述模型,利用美学分类数据集、美学描述数据集对创建的模型进行训练;步骤S40、对待评估服装图像进行预处理后,分别输入美学二分类模型以及美学描述模型,分别得到美学预测结果以及美学描述结果。本发明的优点在于:极大的提升了服装外观评估的客观性以及效率。

    一种基于色彩的服装风格转换方法及系统

    公开(公告)号:CN116740206A

    公开(公告)日:2023-09-12

    申请号:CN202310681804.1

    申请日:2023-06-09

    Applicant: 厦门大学

    Inventor: 姚俊峰 颜彬彬

    Abstract: 本发明提供了服装设计技术领域的一种基于色彩的服装风格转换方法及系统,方法包括如下步骤:步骤S10、构建一服装风格的二维坐标空间;步骤S20、获取大量的服装风格数据,基于所述服装风格数据与二维坐标空间的服装风格的词义距离,将所述服装风格数据添加进二维坐标空间中;步骤S30、收集大量的不同服装风格的服装图像,基于各所述服装图像构建服装数据集;步骤S40、基于生成式对抗网络创建一服装风格转换模型;步骤S50、利用所述服装数据集对服装风格转换模型进行训练;步骤S60、利用训练后的所述服装风格转换模型进行服装风格的自动转换。本发明的优点在于:极大的提升了服装风格转换的质量、灵活性以及便捷性。

    一种基于PCANet+和LSTM的微表情识别方法及系统

    公开(公告)号:CN116645717A

    公开(公告)日:2023-08-25

    申请号:CN202310681811.1

    申请日:2023-06-09

    Applicant: 厦门大学

    Abstract: 本发明提供了表情识别技术领域的一种基于PCANet+和LSTM的微表情识别方法及系统,方法包括:步骤S10、对人像视频中的各帧人头图像的人脸进行关键点检测;步骤S20、基于关键点对人头图像进行预处理得到若干张人脸图像;步骤S30、对人脸图像的帧数进行归一化;步骤S40、对各人脸图像进行光流计算,得到光流图像序列;步骤S50、将光流图像序列输入PCANet+网络得到若干张特征图,对各特征图进行加权平均得到一张二维特征图;步骤S60、基于关键点从二维特征图中截取特征区域,将各特征区域输入LSTM网络提取时序特征并进行加权求合得到不同类别微表情的分数;步骤S70、使用Softmax函数将分数映射为不同类别微表情的概率。本发明的优点在于:极大的提升了微表情的识别效果。

    一种基于深度学习的舞美效果自动生成方法及系统

    公开(公告)号:CN114927143A

    公开(公告)日:2022-08-19

    申请号:CN202210422650.X

    申请日:2022-04-21

    Applicant: 厦门大学

    Abstract: 本发明提供了计算机技术领域的一种基于深度学习的舞美效果自动生成方法及系统,方法包括如下步骤:步骤S10、获取音频数据,将所述音频数据切割为音频片段;步骤S20、对各所述音频片段进行预处理得到若干个第一单帧频域数组,对所述音频数据进行预处理得到第二单帧频域数组;步骤S30、对各所述第一单帧频域数组进行横向堆叠得到声谱图;步骤S40、将所述声谱图输入创建的愉悦度识别模型以及激活度识别模型得到对应的愉悦度和激活度;步骤S50、基于所述第二单帧频域数组选取音乐的幅度值;步骤S60、基于所述愉悦度、激活度以及幅度值自动生成舞美效果。本发明的优点在于:极大的提升了舞美效果生成的效率以及质量,极大的降低了舞美效果生成的成本。

Patent Agency Ranking