-
公开(公告)号:CN108921019B
公开(公告)日:2022-03-08
申请号:CN201810518121.3
申请日:2018-05-27
Applicant: 北京工业大学
Abstract: 本发明公开了一种基于GEI和TripletLoss‑DenseNet的步态识别方法,该方法将步态能量图GEI作为网络的输入,采用稠密连接方式连接网络各层,并使用三元组损失函数计算训练的损失值,通过优化损失值,反向传播更新模型参数,训练网络模型直至该模型收敛。经过网络的训练,最终将GEI映射为特定空间S上一维数组表示的特征向量,并用特征向量间的欧氏距离表示行人的相似度,通过相似度来匹配步态识别人的身份。通过在CASIA步态数据库的DatasetB上进行测试,体现了该模型具有较强的特征映射能力,证明了本发明能在训练样本较少的情况下训练出性能优越的基于步态的识别模型,而且具有跨视角识别、模型参数少等优点。
-
公开(公告)号:CN111047608A
公开(公告)日:2020-04-21
申请号:CN201911369896.X
申请日:2019-12-26
Applicant: 北京工业大学
Abstract: 本发明公开了一种基于Distance-AttU-Net的端到端的乳腺超声图像的分割方法,该方法直接将原始乳腺超声图像作为网络的输入,使用自定义损失函数计算训练的损失值,通过优化损失值,反向传播更新模型参数,训练网络模型直至该模型收敛。通过网络的训练,使网络本身具有一种区别病灶与其周围相似区域的能力,最终将乳腺超声图像中的病灶区域分割出来。通过在公开的数据集B上进行测试,体现了该网络模型具有较强的分割能力,证明了本发明能在训练样本较少的情况下训练出性能优越的基于超声图像的乳腺病灶分割模型,而且具有端到端分割、处理多尺度病灶以及区分度较强等优点。
-
公开(公告)号:CN108921019A
公开(公告)日:2018-11-30
申请号:CN201810518121.3
申请日:2018-05-27
Applicant: 北京工业大学
Abstract: 本发明公开了一种基于GEI和TripletLoss-DenseNet的步态识别方法,该方法将步态能量图GEI作为网络的输入,采用稠密连接方式连接网络各层,并使用三元组损失函数计算训练的损失值,通过优化损失值,反向传播更新模型参数,训练网络模型直至该模型收敛。经过网络的训练,最终将GEI映射为特定空间S上一维数组表示的特征向量,并用特征向量间的欧氏距离表示行人的相似度,通过相似度来匹配步态识别人的身份。通过在CASIA步态数据库的DatasetB上进行测试,体现了该模型具有较强的特征映射能力,证明了本发明能在训练样本较少的情况下训练出性能优越的基于步态的识别模型,而且具有跨视角识别、模型参数少等优点。
-
公开(公告)号:CN108460340A
公开(公告)日:2018-08-28
申请号:CN201810113101.8
申请日:2018-02-05
Applicant: 北京工业大学
Abstract: 本发明公开了一种基于3D稠密卷积神经网络的步态识别方法,该方法中的网络利用3D卷积提取步态在时间维度上的变换特征,同时拥有DenseNet结构的特征保留能力。本发明在网络深度较浅,训练样本较少的情况下训练出性能优越的可根据视频中的步态识别其身份的分类识别模型。通过在CASIA步态数据库的Dataset A上进行测试,证明该方法能在训练样本不充足的情况下训练出实用的步态识别模型,且具有训练速度快,模型参数少,识别率高的优点,并在单一视角或跨视角情况下都具有可观的识别能力。
-
-
-