-
公开(公告)号:CN110874406B
公开(公告)日:2022-06-14
申请号:CN201911130977.4
申请日:2019-11-18
Applicant: 福州大学
IPC: G06F16/335 , G06F16/9535 , G06F40/30
Abstract: 本发明涉及一种为预印本网络中拟投稿的论文推荐合适期刊及审稿人的方法,先获取预印本网络arXiv和DBLP文献网络,将这两个网络中同名论文通过锚链接进行对齐,得到两个对齐的文献网络;采用面向文献网络的随机游走策略,得到随机游走下所有分属于DBLP和arXiv的节点对之间节点相似度,再采用锚节点下的节点相似度迁移策略,将DBLP中的信息迁移到arXiv中,最后在两个对齐的文献网络中,计算时间感知矩阵TM,根据TM来计算节点间带时间感知的相似度矩阵M,通过M得到arXiv中待审稿论文和各期刊间相似度向量V,得到为预印本网络中拟投稿的论文推荐的合适期刊及审稿人的列表。本发明考虑到了网络的拓扑结构信息、节点的语义信息,从而使得最后的推荐结果更为合理。
-
公开(公告)号:CN110827804B
公开(公告)日:2022-06-14
申请号:CN201911111989.2
申请日:2019-11-14
Applicant: 福州大学
Abstract: 本发明涉及一种音频帧序列到事件标签序列的声音事件标注方法,包括如下步骤:步骤S1:从给定音频文件中提取梅尔能量特征,并将其处理成特征序列;步骤S2:根据得到的特征序列,使用三层卷积神经网络提取每帧的抽象特征,并通过双向门限递归单元神经网络提取帧综合特征序列;步骤S3:根据得到的综合特征序列,通过Softmax前馈神经网络层作为注意力机制层,得到注意力特征,并进一步得到事件标签序列;步骤S4:将得到的所有音频片段的声音事件标签序列联合,并进行合并和平滑处理,得到检测结果。本发明使用多任务损失机制,在降低误检测的同时提高事件检出率,改善定位准确度,最后对模型输出进行平滑和合并处理,以显著提高音频文件中声音事件的标注精度。
-
公开(公告)号:CN110059672B
公开(公告)日:2022-06-14
申请号:CN201910358582.3
申请日:2019-04-30
Applicant: 福州大学
IPC: G06V20/69 , G06V10/764 , G06V10/774
Abstract: 本发明涉及一种利用增量学习对显微镜细胞图像检测模型进行增类学习的方法,首先对初始图像进行预处理,使用旧类别样本训练faster‑rcnn模型获得显微镜细胞图像检测模型作为初始模型。使用训练好的显微镜图像细胞检测模型预测新的细胞,对新类别细胞样本进行手工标注。其次使用初始模型对新类别样本预测生成软目标和中间层特征,生成的软目标置信度为0.2以上的粗标签。修改显微镜细胞图像检测模型最后一层大小,作为显微镜细胞图像增量检测模型。分别计算增量模型和初始模型的中间层特征图距离,计算显微镜细胞图像检测的分类和回归损失,计算置信度损失。最后通过最小化上述损失总和来训练更新模型。获得能够预测新类别细胞的显微镜细胞图像增量检测模型。
-
公开(公告)号:CN108198200B
公开(公告)日:2022-03-08
申请号:CN201810076414.0
申请日:2018-01-26
Applicant: 福州大学
IPC: G06T7/20
Abstract: 本发明涉及一种跨摄像头场景下指定行人在线跟踪方法,通过在任一摄像头视野区域内标定出感兴趣的行人,根据获得的基本信息创建并初始化跟踪器;当指定行人离开当前摄像头视野区域后,将行人状态设置为挂起检测,等待下一步行人数据关联操作;当跟踪视野区域内有新行人进入时,则将挂起状态的行人和新目标行人进行通过关联算法判断是否属于同一个行人;根据基于深度学习的数据关联算法得到两个目标行人的相似值,当相似值大于阈值,则更新对应的跟踪器,进而得到感兴趣目标行人在整个摄像头网络中的完整运动轨迹。本发明提出的一种跨摄像头场景下指定行人在线跟踪方法,提高了多摄像头场景下非重叠视野区域目标跟踪的实用性和准确度。
-
公开(公告)号:CN107766815B
公开(公告)日:2021-05-18
申请号:CN201710968408.1
申请日:2017-10-18
Applicant: 福州大学
Abstract: 本发明涉及一种视觉辅助服务运营系统及运营方法。包括用户终端、运营业务管理平台;用户终端,为通过安装在用户自有互联网终端设备或通讯设备上的应用程序,用于向运营业务管理平台发送服务请求和地理位置,并接收和处理反馈结果;运营业务管理平台为通过用户数据库和生成对抗模型参数数据库等,根据用户终端的反馈信息实现生成对抗模型参数的选择,以及计价扣费。本发明在任何地点即可使用该视觉辅助服务运营系统,具有运营成本低、推广性强的优点。
-
公开(公告)号:CN106997765B
公开(公告)日:2020-09-01
申请号:CN201710207110.9
申请日:2017-03-31
Applicant: 福州大学
Abstract: 本发明涉及一种人声音色的定量表征方法,该方法通过分析专业歌手演唱的多首歌曲的音频,计算每帧192维的CQT特征,再选取60个音频帧的CQT特征构成大小为60*192的输入矩阵对深度卷积神经网络进行训练,得到训练好的深度卷积神经网络及相应的人声音色嵌入空间;再对业余歌手的清唱音频进行相同的分析计算并送入训练好的深度卷积神经网络,即可得到同一人声音色嵌入空间中的音色向量,实现了用一种定量的、客观的方式表示主观的音色特征。
-
-
公开(公告)号:CN106600560B
公开(公告)日:2019-07-12
申请号:CN201611196660.7
申请日:2016-12-22
Applicant: 福州大学
Abstract: 本发明涉及一种适用于行车记录仪的图像去雾方法。首先采用四叉树方法求解大气光值;随后利用训练的卷积神经网络获取粗略透射率图,并使用引导滤波方法优化透射率图;最后通过大气散射模型逆向求解获取复原图像。本发明所提出的一种适用于行车记录仪的图像去雾方法,可以有效处理灰蒙的雾天图像且处理后的图像亮度得到改善,在保留图像边缘细节的同时可以有效地还原图像的色彩。可应用于行车记录仪的去雾处理,满足视频处理的要求,具有较强的实用性。
-
公开(公告)号:CN105070301B
公开(公告)日:2018-11-27
申请号:CN201510409132.4
申请日:2015-07-14
Applicant: 福州大学
IPC: G10L25/81
Abstract: 本发明涉及一种单通道音乐人声分离中的多种特定乐器强化分离方法。该方法对电吉他、单簧管、小提琴、钢琴、木吉他、风琴、长笛和小号共计8种乐器进行强化分离,该强化分离是通过一层单乐器分离器和三层多乐器组合强化器实现,其中,第一层多乐器组合强化器能够分离2类乐器声,第二层多乐器组合强化器能够分离4类乐器声,第三层多乐器组合强化器能够分离8类乐器声。本发明利用DRNN作为单乐器分离器的核心,为不同的单乐器分离器建立不同的DRNN模型;同时,采用BP网络作为多乐器分离器的核心来实现多乐器的分离;最后,提出了针对该系统不同的单乐器分离器的训练样本的构建方法,本发明方法简单灵活,具有较强的实用性。
-
公开(公告)号:CN104092960B
公开(公告)日:2017-06-06
申请号:CN201410358511.0
申请日:2014-07-26
Applicant: 福州大学
Abstract: 本发明涉及一种基于视觉主观感受的视频源切换方法,其特征在于:服务器端通过训练获取视觉主观感受预测器NMSVM,并将该视觉主观感受预测器NMSVM分发至客户端,客户端对视觉主观感受预测器NMSVM进行部署;客户端通过多项式拟合预测当前网络服务状态下一阶段可能的网络视频丢包率;客户端通过差分自回归移动平均方法预测当前视频源下一阶段可能的视频内容视觉特性;客户端通过视觉主观感受预测器NMSVM对当前视频源下一阶段的视觉主观感受进行预测,并根据预测结果决定是否需要切换视频源格式。本发明综合考虑网络丢包率、视频源格式、视频内容特性等因素,实现了网络流媒体服务不间断下的视频源格式无缝切换,方法简单灵活,具有较强的实用性。
-
-
-
-
-
-
-
-
-