-
公开(公告)号:CN104008375A
公开(公告)日:2014-08-27
申请号:CN201410245002.7
申请日:2014-06-04
Applicant: 北京工业大学
Abstract: 本发明属于模式识别技术领域,涉及基于特征融合的集成人脸识别方法。本发明采用PCA、SPP及简单投影方法提取图像的整体特征,采用子图像方法提取局部特征,将它们共同作为属性Bagging方法中的属性,并进行集成分类识别。本发明通过三庭五眼划分局部特征,一方面可以保留器官区域的完整性,另一方面减少了人工干预;通过整合整体特征和局部特征信息,降低人脸图像可能受到的光照、姿势、表情等各种因素的影响,提高了人脸识别正确率,且对外界因素变化具有很好的鲁棒性。实验表明,在AR数据库上,最好的情况下本发明所述方法比整体特征方法的识别率平均值提高了27%左右。
-
公开(公告)号:CN103699933A
公开(公告)日:2014-04-02
申请号:CN201310652912.2
申请日:2013-12-05
Applicant: 北京工业大学
IPC: G06N3/12
Abstract: 本发明公开一种基于最小生成树聚类遗传算法的交通信号配时优化方法,包括:进行个体编码、初始化数据,并设定参数;进行种群初始化;计算种群内个体的适应度值;对种群进行最小生成树聚类;选择种群内个体参加遗传操作;对选择的个体进行交叉和变异操作;重复迭代直到得到对应周期的最佳配时。本发明通过对种群进行最小生成树聚类,使物种内的个体具有很高的相似度,而物种间的相似度较低,利用物种间的交叉可以维持种群多样性,抑制未成熟收敛现象;将本发明应用于单交叉口信号配时优化,可以得到有效的配时时间,减少交叉口前的排队车辆数。
-
公开(公告)号:CN103258186A
公开(公告)日:2013-08-21
申请号:CN201310084411.9
申请日:2013-03-17
Applicant: 北京工业大学
Abstract: 基于图像分割的集成人脸识别方法属于图像处理领域。由于人脸图像受到关照、表情、姿态的影响,一直没有得到较好的人脸识别效果。在机器学习领域,弱学习定理指出,只要能够找到比随机猜测略好的弱学习方法,就可以通过一定的方法构造出任意精度的强学习算法。本发明据“三庭五眼”理论,将人脸图像分成15部分,将15部分人脸特征作为属性Bagging(Attribute Bagging,AB)中的属性集合,通过属性集的有放回抽样来构建训练样本集,从而完成基分类器的训练,最终利用1NN方法进行分类识别。通过在Yale、YaleB数据库上验证了该方法的有效性与可行性。
-
公开(公告)号:CN102222215B
公开(公告)日:2012-11-28
申请号:CN201110134970.7
申请日:2011-05-24
Applicant: 北京工业大学
Abstract: 本发明公开了一种步态识别方法,特别是一种基于二级小波包分解和完全主成分分析的步态识别方法,属于模式识别技术领域。该方法的步骤包括:预处理(形态学处理、目标提取和图像归一化)、特征提取(步态周期、步态能量图、融合WPD+(2D)2PCA选择特征),最后根据最近邻分类原理把测试样品归到相应的类中。本发明利用步态能量图把周期帧整合到一张平均图,以消除周期帧数不同对特征抽取的影响,降低计算复杂度;另外本发明首次采用融合WPD和(2D)2PCA方法来提取并选择步态特征,解决已有基于小波变换的步态识别方法中高频分量丢失或简单采用全部数据所致维数过大问题,具有更高的识别率和视角变化鲁棒性。
-
公开(公告)号:CN118332383A
公开(公告)日:2024-07-12
申请号:CN202410557740.9
申请日:2024-04-27
Applicant: 北京工业大学
IPC: G06F18/24 , G06F18/25 , G06F18/22 , G06F18/214 , G06N3/044 , G06N3/0464 , G06N3/0455 , G06N3/0895
Abstract: 本发明提出了一种融合皮尔逊相关节拍的ECG信号分类方法,由于心电信号的导联间特征不连续,长时序性、准周期特征以及疾病发病间歇性等特点,以原始ECG数据进行疾病检测仍然具有挑战。在发明中我们引入皮尔逊特殊节拍以增强数据发病节拍片段的学习。在该模型中首先获取ECG的皮尔逊特殊节拍作为并行数据以增强疾病差异学习,然后利用并行空洞Unet模块以更好的获取导联间特征,并添加融合局部特征预测的Transformer模块获取长距离特征。本方法在ECG数据上获得了比较高的分类性能。
-
公开(公告)号:CN116994015A
公开(公告)日:2023-11-03
申请号:CN202210432979.4
申请日:2022-04-21
Applicant: 北京工业大学
IPC: G06V10/764 , G06V10/774 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种基于递进式知识传递的自蒸馏分类方法。提出一种自蒸馏分阶段学习方式,在学习过程中使浅层学生网络渐进式的向教师网络学习,从而提高学生网络的分类性能。首先,在教师网络训练完成后冻结其参数,再引入学生网络早期出口模块进行蒸馏操作;其次,在训练学生网络时,使其分阶段的向深层教师网络学习知识。
-
公开(公告)号:CN116993971A
公开(公告)日:2023-11-03
申请号:CN202210433076.8
申请日:2022-04-21
Applicant: 北京工业大学
IPC: G06V10/26 , G06V10/764 , G06V10/774 , G06V10/82 , G06N3/0464 , G06N3/084
Abstract: 本发明提出了一种基于注意力的双分支乳腺超声肿瘤分类方法,包括以下流程:数据预处理、模型构建、模型训练以及模型最终分类结果。模型构建是本发明最重要的一步:首先遵循了传统的医学深度学习分类网络的架构,并基于此提出双分支网络。其次针对乳腺超声图像对比度低所带来的问题,提出基于注意力的双分支网络,分支一网络用于提取未分割的超声图像的特征,分支二网络用于提取由GTSNet网络分割得到仅含有肿瘤的超声图像的特征,并将分支二网络所提取的特征图以先验知识的方式作用在分支一网络所提取的特征图中,“强化”模型在肿瘤边界处提取有用信息的能力,提高模型的定位能力。最后采用加权交叉熵损失函数作为模型的损失函数,促使模型朝着更好的方向进行优化。
-
公开(公告)号:CN116993647A
公开(公告)日:2023-11-03
申请号:CN202210419594.4
申请日:2022-04-21
Applicant: 北京工业大学
IPC: G06T7/00 , G06T7/11 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种基于Swin Transformer和Involution的SI‑Unet网络结构的肝脏肿瘤分割方法,该方法直接将CT转换为普通图像后的图像作为网络的输入,使用损失函数计算训练的损失值,通过优化损失值,反向传播更新模型参数,训练网络模型直至该模型收敛。在网络结构中,通过引入Swin Transformer模块来捕捉肿瘤间的长距离依赖,可以对肿瘤的边界进行更精确的分割;通过引入Involution来对每个位置进行单独的建模,可以对每个目标肿瘤的不同情况进行不同建模;在引入这两个模块的基础上,重新构建了一种新型的U型网络结构。通过在公开数据集Decathlon和LiTS上进行交叉验证,验证了基于这种网络结构的肝脏肿瘤分割方法的有效性。
-
公开(公告)号:CN113855043B
公开(公告)日:2023-08-18
申请号:CN202110999643.1
申请日:2021-08-29
Applicant: 北京工业大学
IPC: A61B5/346
Abstract: 本发明公开了一种融合多导联注意力机制的ResNeXt网络分类方法,本发明首先利用傅里叶变换将原始时域信号转变为对应的频谱图像,然后采用MARX‑Net网络对二维频谱图进行图像分类以实现心律失常的类别识别,同时本方法在网络结构中融入了多导联注意力模块,增加了关注相关导联信息的权重,抑制了无关导联信息的权重,进而提高了心电信号分类的准确率。同时引入了PreAct方法改变神经网络激活层位置,改善了残差网络的性能。本发明是一种端到端的心电分类方法。降低了解决问题的繁琐复杂过程,有效地提高了心电信号分类准确率。
-
公开(公告)号:CN111125316B
公开(公告)日:2022-04-22
申请号:CN201911369897.4
申请日:2019-12-26
Applicant: 北京工业大学
IPC: G06F16/33 , G06F16/332 , G06F40/295 , G06F40/247 , G06N5/02
Abstract: 本发明公开了一种融合多损失函数及注意力机制的知识库问答方法,该方法将问题和候选答案作为输入,采用Bi‑LSTM、Bi‑GRU作为主要特征提取器,同时融入注意力机制,并使用两个损失函数对模型进行优化,通过采用计算损失值反向传播来更新模型参数,训练网络模型直至该模型收敛。经过网络的训练,最终将问题和候选答案映射到维数相同的特征空间上,并用问题和候选答案特征向量间的内积计算二者的语义相似度,同时利用候选答案之间的余弦相似度来扩大不同答案之间的差异性。通过在SimpleQuestions数据集上进行测试,体现了该模型具有较强的特征映射能力及较高的准确率,从而证明了本方法的优越性。
-
-
-
-
-
-
-
-
-