-
公开(公告)号:CN113870160A
公开(公告)日:2021-12-31
申请号:CN202111060998.0
申请日:2021-09-10
Applicant: 北京交通大学
Abstract: 本发明提供了一种基于变换器神经网络的点云数据处理方法。该方法包括:构建三维物体对称检测模型,通过检测物体对称面/轴获取输入的点云数据的对称点,将点云数据的投影平面转换为对称结构的旋转平移操作,得到多组数据据增强后的点云图数据;通过变换器网络模型提取多组数据据增强后的点云图数据的全局特征信息和局部特征信息,得到下采样后的点云数据;结合不同的目标任务需求,构建任务驱动的任务网络模型,将下采样后的点云数据输入到任务网络模型,得到目标任务结果。本发明有效结合三维物体对称检测模型与变换器网络模型,能够在提高下采样模型鲁棒性的同时,进而具有最小化目标任务精度损失的能力,提升下采样规模和目标任务的精确度。
-
公开(公告)号:CN110515380B
公开(公告)日:2021-07-13
申请号:CN201910779182.X
申请日:2019-08-22
Applicant: 北京交通大学
IPC: G05D1/02
Abstract: 本发明提供了一种基于转弯权重约束的最短路径规划方法。该方法包括:步骤1、计算出源点v与其它所有结点之间的距离,将源点v与其它所有结点之间的距离存储在结点距离数据表中;步骤2、从U中选取一个到源点v距离最短的结点k,把k加入S中;步骤3、以结点k为中间结点,基于转弯权重重新计算U中各结点到源点v的距离,将重新计算的源点v与其它所有结点之间的距离更新存储在结点距离数据表中;步骤4、重复执行步骤2和3,直到将终点w添加到S中,得到源点v到终点w的最短路径。本发明在有效计算最短路径的同时,对路口转弯进行权重惩罚,得出的最短路径在道路长度较短的基础上能够尽量避免转弯,帮助AGV引导车进程有效快速的完成任务。
-
公开(公告)号:CN112800876A
公开(公告)日:2021-05-14
申请号:CN202110050152.2
申请日:2021-01-14
Applicant: 北京交通大学
Abstract: 本发明实施例提供了一种用于重识别的超球面特征嵌入方法,包括以下步骤:图像预处理阶段:从数据集中读取目标样本图像,对图像进行预处理;特征提取阶段:将预处理后的图像输入到深度网络模型提取图像的特征映射并结合注意力机制的全局池化操作得到特征向量;损失计算及训练优化阶段:根据所述特征向量和目标ID标签分别计算三种损失函数损失的值,根据损失的值计算深度卷积神经网络参数的梯度对模型进行优化;测试评估阶段:对训练完成的深度网络模型进行测试并根据测试结果调整超参数。本发明还提供了一种用于重识别的超球面特征嵌入系统,包括:图像预处理模块、特征提取模块、超球面特征嵌入模块和测试模块。
-
公开(公告)号:CN112349057A
公开(公告)日:2021-02-09
申请号:CN202011384257.3
申请日:2020-12-01
Applicant: 北京交通大学
Abstract: 本发明提供了一种基于深度学习的室内烟雾和火灾检测方法。该方法包括:建立烟雾和火灾数据集,对烟雾和火灾数据集中的每张图像进行标注,选取标注后的一定数量的图像分别作为训练集和测试集;使用深度学习框架构建卷积深度网络模型,利用训练集和测试集对卷积深度网络模型进行训练和测试,得到训练好的卷积深度网络模型;将待测的图像输入到训练好的卷积深度网络模型,训练好的卷积深度网络模型输出所述待测的图像的烟雾和火灾检测结果。本发明的方法利用摄像头获取的图像数据,通过卷积神经网络模型对图像数据中的烟雾、火灾进行实时预测,不仅极大地降低了人力成本,而且提高了烟雾、火灾的识别准确率。
-
公开(公告)号:CN111968058A
公开(公告)日:2020-11-20
申请号:CN202010863754.5
申请日:2020-08-25
Applicant: 北京交通大学
Abstract: 本发明提供了一种低剂量CT图像降噪方法,包括:获取训练数据集;建立降噪网络模型,包括自适应边缘特征提取模块用于对输入的训练数据集中低剂量CT图像进行边缘特征的提取;第一融合层对自适应边缘特征提取模块的输出信号和输入信号进行融合;卷积模块包括多层卷积层构成的编码器、多层返卷积层构成的解码器以及第二融合层,编码器对第一融合层的输出信号进行编码,第二融合层使用跳跃的方式将解码器的反卷积层的特征图与其在编码器中对称的卷积层的特征图进行融合,输出降噪后的特征图;对降噪网络模型进行训练、测试;采用测试好的降噪网络模型对低剂量CT图像降噪。本方法能够保留更多细粒度的信息,得到更加接近目标图像的降噪结果。
-
公开(公告)号:CN111581468A
公开(公告)日:2020-08-25
申请号:CN202010412161.7
申请日:2020-05-15
Applicant: 北京交通大学
IPC: G06F16/906 , G06N20/00
Abstract: 本发明提供了一种基于噪声容忍的偏多标记学习方法。该方法包括构建训练数据的特征矩阵X、可观测标签矩阵Y和特征填充矩阵E;根据特征矩阵X、可观测标签矩阵Y和特征填充矩阵E挖掘特征空间和标记空间一致性信息,构建基于噪声的偏多标记学习模型,通过选择迭代优化方法对偏多标记学习模型进行训练,得到多标签分类器V;将未知样本输入到多标签分类器V,多标签分类器V输出所述未知样本的标签信息。本发明提出的基于噪声容忍的偏标记学习方法,该方法不进行标记消歧,而是补充样本缺失的特征信息,达到噪声标记能够参与模型训练过程的目的。该算法充分利用缺失特征信息的低秩性,辅助算法学习更鲁棒的分类模型,实现对未知样本的准确分类。
-
公开(公告)号:CN106897662B
公开(公告)日:2020-03-10
申请号:CN201710010146.8
申请日:2017-01-06
Applicant: 北京交通大学
Abstract: 本发明提供了一种基于多任务学习的人脸关键特征点的定位方法。该方法包括根据级联分类器对目标图像进行人脸区域检测,利用人眼检测器定位识别出的人脸区域中的人眼的位置,计算出人脸区域中的两眼间的距离;将人脸区域中的两眼间的距离与人脸平均模型中的两眼间的距离进行对比,根据比较结果确定人脸平均模型的缩放比例,利用缩放比例对人脸平均模型中的人脸区域进行位置调整,通过多任务学习方法定位目标图像对应的人脸区域中的人脸特征点。本发明通过利用不同特征的表征优势,结合多任务学习的框架,解决了监督梯度下降法中的特征点定位中的学习不足的问题,提升了人脸特征点定位的初始化模型的检测性能,提高了人脸关键特征点定位的准确性。
-
公开(公告)号:CN108960029A
公开(公告)日:2018-12-07
申请号:CN201810247186.9
申请日:2018-03-23
Applicant: 北京交通大学
CPC classification number: G06K9/00369 , G06K9/6256 , G06K9/6269
Abstract: 本发明提供了一种行人分心行为检测方法。该方法包括:采用梯度和纹理特征集成方法对行人图像进行行人检测处理,获取所述行人图像中的行人位置信息;根据所述行人的位置区域采用选择性搜素的方法对所述行人图像进行区域分割和合并处理,检测出行人敏感部位图像,对所述行人敏感部位图像进行特征提取,得到所述行人图像的敏感特征矩阵;利用行人图像数据集中所有行人图像的敏感部位特征矩阵训练Adaboost分类器,将待检测的行人图像输入训练好的Adaboost分类器,所述Adaboost分类器输出所待检测的行人图像的检测结果。本发明的方法可以准确及时地对行人行为进行分析,判断该行人是否为使用手机的危险行人并及时反馈给行人、司机以及交管部门,起到安全警示作用。
-
公开(公告)号:CN106682578A
公开(公告)日:2017-05-17
申请号:CN201611039329.4
申请日:2016-11-21
Applicant: 北京交通大学
IPC: G06K9/00
Abstract: 本发明提供了一种基于眨眼检测的人脸识别方法。该方法包括:通过摄像头拍摄用户的图像,通过人脸检测器从所述用户的图像中检测出人脸图像;通过人脸匹配算法将所述人脸图像与预先存储的已经注册的人脸图像进行匹配,当所述匹配的结果为相似度大于设定的匹配阈值时,则确定所述人脸图像已经注册;通过眨眼检测算法检测多个所述用户的图像中是否存在眨眼,当检测出存在眨眼,则确定所述用户的图像来自活体。本发明的方法通过检测眨眼能很好的区分检测的是照片、雕塑还是活体。相比于ASM+Canny的眨眼检测方法对光线的要求很高的缺点,而本发明利用形态学对图像进行差分处理,能很好的适应弱光检测条件。
-
公开(公告)号:CN114565752B
公开(公告)日:2024-12-27
申请号:CN202210133345.9
申请日:2022-02-10
Applicant: 北京交通大学
IPC: G06V10/25 , G06V10/26 , G06V10/75 , G06V10/764 , G06V10/82 , G06N3/0464 , G06N3/045 , G06N3/0895
Abstract: 本发明提供了一种基于类不可知前景挖掘的图像弱监督目标检测方法。该方法包括:基于待进行目标检测的图像通过CNN生成前景注意力图;基于前景注意力图计算每个候选框的前景相对置信度FRC,根据各个候选框的FRC筛选出前景候选框;基于前景候选框构建实例空间图,基于数据集的标签构建标签语义图,对实例空间图和标签语义图进行图匹配,根据图匹配结果为每个前景候选框进行分类;根据各个前景候选框的分类结果生成伪监督框,将伪监督框与伪监督框的空间近邻框进行合并得到伪实例标签,将该伪实例标签作为待进行目标检测的图像的目标检测结果。本发明把定位和分类任务分离,从而实现的定位与分类性能的双向提升,有效地提升图像的弱监督目标检测性能。
-
-
-
-
-
-
-
-
-