-
公开(公告)号:CN111612143A
公开(公告)日:2020-09-01
申请号:CN202010440475.8
申请日:2020-05-22
Applicant: 中国科学院自动化研究所
Abstract: 本发明涉及一种深度卷积神经网络的压缩方法及系统,所述压缩方法包括:根据滤波器重要性选择方式和/或模型压缩率,确定待压缩深度卷积神经网络中不重要的滤波器;对不重要的滤波器施加渐进式稀疏约束,作为正则项加入到网络训练的损失函数中,得到优化损失函数;根据正则项,采用阈值迭代算法及反向传播算法联合求解,得到待压缩深度卷积神经网络的更新参数;基于所述优化损失函数及更新参数,获得具有滤波器稀疏形式的卷积神经网络模型;利用结构化剪枝算法,对所述具有滤波器稀疏形式的卷积神经网络模型进行剪枝,得到网络精度较高的压缩后的卷积神经网络模型。
-
公开(公告)号:CN110215216B
公开(公告)日:2020-08-25
申请号:CN201910500528.8
申请日:2019-06-11
Applicant: 中国科学院自动化研究所
IPC: A61B5/11
Abstract: 本发明属于计算机视觉领域,具体涉及一种基于骨骼关节点分区域分层次的行为识别方法、系统、装置,旨在为了解决有效提高行为识别准确率同时减少网络层数的问题。本发明方法包括:获取输入视频的各帧图像,从各帧图像中分别提取骨骼关节点;对每一帧图像,将其中所提取的所述骨骼关节点划分至所划分的各人体区域,并通过图卷积操作获取对应的特征表示,得到第一层特征表示集;对每一帧图像,按照所述各人体区域,基于所述第一层特征表示,通过池化、图卷积方法逐层减少关节点数量,直至通过多层聚合得到一个特征向量,并将该特征向量输入到两个全连接层得到行为类别。本发明提高了行为识别的准确率,加快了训练速度与检测速度。
-
公开(公告)号:CN111539911A
公开(公告)日:2020-08-14
申请号:CN202010209044.0
申请日:2020-03-23
Applicant: 中国科学院自动化研究所
Abstract: 本发明公开了一种口呼吸面容识别方法、设备和存储介质。该方法包括:采集有效人脸图像;确定有效人脸图像中目标人脸的姿态角;如果目标人脸的姿态角在预设的姿态角范围之内,则在有效人脸图像中,提取目标人脸的结构度量特征;将目标人脸的结构度量特征输入预先训练的口呼吸面容识别模型,获取口呼吸面容识别模型输出的口呼吸面容识别结果;其中,对预设的正样本图像进行图像增广处理,利用图像增广处理后的正样本图像以及预设的负样本图像,训练口呼吸面容识别模型。本发明利用图像处理技术结合预先训练的口呼吸面容识别模型识别目标人脸是否为口呼吸面容,解决了口呼吸面容诊断过程,无论对疑似患者还是对医生而言都成本较高的问题。
-
公开(公告)号:CN111339777A
公开(公告)日:2020-06-26
申请号:CN202010111949.4
申请日:2020-02-24
Applicant: 中国科学院自动化研究所
IPC: G06F40/295 , G06F16/35 , G06N3/04 , G06N3/08
Abstract: 本发明涉及一种基于神经网络的医学相关意图识别方法及系统,所述识别方法包括:获取历史的用户医学问题,得到问题文本;对所述问题文本进行标注,得到标注文本,所述标注文本包括原始标注文本及实体替换标注文本;根据所述问题文本及标注文本,训练初始神经网络,得到最优超参数集下的优化神经网络;基于所述优化神经网络,根据当前用户的医学问题,确定该当前用户的意图。本发明通过对用户医学问题进行标注,得到原始标注文本及实体替换标注文本,从而可提供大量的标注文本信息,并进一步基于标注文本及问题文本,对初始神经网络进行训练,得到可以确定用户意图的优化神经网络,分析速度快,准确度高。
-
公开(公告)号:CN111079601A
公开(公告)日:2020-04-28
申请号:CN201911243331.7
申请日:2019-12-06
Applicant: 中国科学院自动化研究所
Abstract: 本发明属于计算机视觉和自然语言处理领域,具体涉及一种基于多模态注意力机制的视频内容描述方法、系统、装置,旨在解决视频内容描述方法只考虑视频特征而忽略高级语义属性信息,导致生成的描述语句准确度较低的问题。本发明方法包括:获取待描述视频的视频帧序列;提取视频帧序列的多模态特征向量,构建多模态特征向量序列,并通过循环神经网络得到各模态特征向量序列对应的特征表示;通过语义属性检测网络得到各特征表示对应的语义属性向量;基于各模态特征向量序列对应的特征表示级联后的向量、语义属性向量,通过基于注意力机制的LSTM网络得到待描述视频的描述语句。本发明融合视觉特征和高层语义属性,提高了生成视频描述语句的准确度。
-
公开(公告)号:CN106204613B
公开(公告)日:2019-09-24
申请号:CN201610575854.1
申请日:2016-07-20
Applicant: 中国科学院自动化研究所
Abstract: 本发明公开了一种基于低秩矩阵表示的图像前景物体检测方法及检测系统。其中,该方法包括提取待处理图像的特征,并利用特征聚类的方式对待处理图像进行子区域划分;接着计算每一子区域的特征均值,以获得子区域的特征表示,并将全部子区域的特征表示排列成矩阵,以获得待处理图像的特征矩阵;然后,利用低秩矩阵表示方法,将特征矩阵分解成低秩矩阵与稀疏矩阵;再针对稀疏矩阵的每一列计算l∞范数,以获得对应子区域的显著性值,并基于子区域的显著值来构成待处理图像的显著图;最后,对显著图进行自适应阈值划分,从而获得待处理图像的前景物体区域。通过本发明实施例解决了如何从前景和背景表观相似的图像中完整地检测前景物体的技术问题。
-
公开(公告)号:CN110222611A
公开(公告)日:2019-09-10
申请号:CN201910446596.0
申请日:2019-05-27
Applicant: 中国科学院自动化研究所
Abstract: 本发明属于计算机视觉及深度学习领域,具体涉及了一种基于图卷积网络的人体骨架行为识别方法、系统、装置,旨在解决基于图卷积神经网络的人体骨架行为识别结果精度不高的问题。本发明方法包括:获取骨架视频帧并归一化;构建每一帧图对应的人体关节自然连接图;学习非自然连接边,获得人体关节连接图;为人体关节连接图各条边分配权重值;进行图卷积操作,获得骨架序列的空间信息;在时间维度上进行卷积操作,获得骨架序列的行为类别。本发明自然连接边能够学习到基本的人体行为特征,同时非自然连接边可以学习到附加的行为特征,通过自然连接边和非自然连接边共同构成一张图,可以更加充分的表征人体运动信息,提高识别性能。
-
公开(公告)号:CN108764050A
公开(公告)日:2018-11-06
申请号:CN201810398601.0
申请日:2018-04-28
Applicant: 中国科学院自动化研究所
Abstract: 本发明涉及人体行为识别领域,具体涉及一种基于角度无关性的骨架行为识别方法、系统及设备,只在提高角度无关性骨架行为识别的准确率。本发明的基于角度无关性的骨架行为识别方法,包括:基于每个视角的骨架序列设计特定视角子网,通过空域注意力和时域注意力模块分别重点关注关键关节点和关键帧,通过多层长短时记忆网络学习每个视角序列的判别性特征;将各个特定视角子网的输出特征串联起来作为公共子网的输入,通过双向长短时记忆网络进一步学习角度无关性特征,通过视角注意力模块重点关注关键视角;提出正则化交叉熵损失函数推动网络多模块共同学习。本发明有效地提高了识别准确率,能够自动专注学习信息较多的视角特征。
-
公开(公告)号:CN106874838A
公开(公告)日:2017-06-20
申请号:CN201611257407.8
申请日:2016-12-30
Applicant: 中国科学院自动化研究所
Abstract: 本发明涉及一种融合互补特征的视觉人体行为识别方法。其中,该方法包括:构建视频中人体行为的表观特性的表达和运动特性的表达;确定时空表观特征和运动特征的时空结构信息;将时空表观特征和运动特征映射到低维子空间中;利用随机弱线性分类器对低维特征进行弱分类,完成对节点的分割,产生多棵随机树;计算随机树上叶节点中各类别训练样本的时空结构信息与统计分布的概率值;将测试视频的时空结构信息与叶节点中的训练样本的时空结构信息进行匹配,并以训练样本所属类别的统计分布的概率值作为测试视频属于该类的得分,判定视频中所述人体行为的所属类别。通过该技术方案,解决了如何对视频中人体行为进行高效、鲁棒的识别的技术问题。
-
公开(公告)号:CN104063721B
公开(公告)日:2017-06-16
申请号:CN201410319126.5
申请日:2014-07-04
Applicant: 中国科学院自动化研究所
Abstract: 本发明公开了一种高效的基于语义特征自动学习与筛选的人类行为识别方法,包括从运动视频中检测时空兴趣点,提取时空兴趣点周围的运动和表观信息;在时空兴趣点特征基础上设计包含时空上下文信息的底层特征,描述一个局部区域的所有时空兴趣点特征,并且记录兴趣点之间的相对时空位置关系;在底层特征基础上,利用基于图模型的非负矩阵分解算法来自动生成高层语义特征;建立基于L2,1范数的组稀疏来选择各个行为类别中具有代表性和区分性的高层语义,通过模型的优化,将各个行为类别中具有代表性的语义特征保留下来,同时只采用优化后来自同一个行为类别的语义特征来训练分类器。本发明大幅提升了人类行为识别的智能化水平。
-
-
-
-
-
-
-
-
-