-
公开(公告)号:CN115239763A
公开(公告)日:2022-10-25
申请号:CN202210853244.9
申请日:2022-07-20
Applicant: 北京交通大学
IPC: G06T7/246 , G06T7/73 , G06V10/74 , G06V10/774
Abstract: 本发明提供了一种基于中心点检测和图匹配的平面目标跟踪方法,该方法包括:使用中心定位网络预测当前帧中跟踪目标的中心点,并根据预测的中心点确定初始目标区域;将模板图像和所述目标区域建模为一个由两个子图组成的完整的图,两个子图分别对应两个区域,使用深度图匹配网络预测模板图像和所述目标区域的匹配矩阵;使用RANSAC算法从由匹配矩阵标识的匹配对中估计目标从模板图像到当前图像的几何变换,得到跟踪目标的预测位置。本发明方法在缩放、旋转、透视变换、运动模糊、部分遮挡和无约束场景下的表现总体上好于以往的方法,特别在部分遮挡、运动模糊和无约束场景下获得了较大收益。
-
公开(公告)号:CN109711254B
公开(公告)日:2020-12-15
申请号:CN201811404816.5
申请日:2018-11-23
Applicant: 北京交通大学
Abstract: 本发明提供一种基于对抗生成网络的图像处理方法和装置,所述方法包括:步骤S1,获取第一人脸样本图像;获取第一人脸多属性条件;步骤S2,将所述第一人脸样本图像和所述第一人脸多属性条件,输入训练好的对抗生成网络的生成网络,得到第一合成图像;步骤S3,将所述第一合成图像作为符合所述第一人脸多属性条件的人脸图像,并输出。
-
公开(公告)号:CN111899284A
公开(公告)日:2020-11-06
申请号:CN202010816457.5
申请日:2020-08-14
Applicant: 北京交通大学
Abstract: 本发明实施例提供了一种基于参数化ESM网络的平面目标跟踪方法,包括:S1、获取目标模板T、第t帧的输入图像以及第t帧中的初始运动参数,由初始运动参数确定输入图像的目标区域It,对目标模板T和目标区域It进行预处理,包括图片缩放和归一化操作,使用特征提取网络对预处理后的目标模板T和第t帧的输入图像的目标区域It进行特征的提取,得到特征映射FT和FtI;S2、利用相似性度量模块计算两个特征映射FT和FtI之间的差异;S3、通过遮挡检测机制确定并排除目标在当前帧中被遮挡的部分,通过最小化当前帧中未被遮挡部分的差异求解目标的运动参数。本发明的方法更适用于目标跟踪任务,而且大大提高跟踪的准确性。
-
公开(公告)号:CN111881840A
公开(公告)日:2020-11-03
申请号:CN202010748159.7
申请日:2020-07-30
Applicant: 北京交通大学
Abstract: 本发明提供了一种基于图网络的多目标跟踪方法,图网络包括特征提取网络模块和图卷积匹配模块,具体包括以下步骤:S1、选取视频中的两帧图像输入特征提取网络模块;S2、通过特征提取网络模块对目标进行特征的提取,获取两帧图像各自的目标特征向量集FM和FN,M和N分别表示两帧图像中检测到目标的数量;S3、基于目标特征向量集FM和FN,计算目标特征向量之间的相似度,构建二部图;S4、通过所述图卷积匹配模块对二部图进行匹配,并利用损失函数进行图网络的反向传播获得最优的匹配矩阵。本发明提供的一种基于图网络的多目标跟踪方法,利用卷积网络对目标进行特征提取,并且提出的损失函数解决了目标数量不确定的问题,大大提高多目标跟踪的正确率。
-
公开(公告)号:CN106127197B
公开(公告)日:2020-07-07
申请号:CN201610219337.0
申请日:2016-04-09
Applicant: 北京交通大学 , 中国移动通信集团设计院有限公司
Abstract: 本发明实施例提供了一种基于显著标签排序的图像显著性目标检测方法和装置。该方法主要包括:将图像样本集中的每幅图像使用SLIC分割方法划分成多个图像区域,对每个图像区域提取视觉特征和背景对比度特征;根据每个图像区域的视觉特征、背景对比度特征和显著值标签组成训练集与测试集,使用基于显著标签排序的算法学习出每幅图像中每个图像区域的显著值;利用低秩矩阵恢复理论恢复图像中每个区域的显著值,检测出图像中的显著目标。本发明的方法充分利用矩阵的核范数控制模型的复杂度,结合视觉特征相似性以及语义标签相似性,利用图拉普拉斯正则化约束之间的相关性,有效解决显著性标签空间较大但训练图像数量有限的问题。
-
公开(公告)号:CN110503830A
公开(公告)日:2019-11-26
申请号:CN201910779885.2
申请日:2019-08-22
Applicant: 北京交通大学
IPC: G08G1/01 , G08G1/0967 , G08G1/16 , G08B21/18
Abstract: 本发明提供了一种基于车路协同的多AGV碰撞预警管理方法。该方法包括:控制器采集并存储指定范围区域内的各个AGV的状态信息和道路信息;控制器根据AGV的行驶状态信息和AGV的当前位置附近的道路规划信息识别出AGV的行驶方向模式;控制器根据AGV的行驶方向模式和行驶状态信息计算出AGV与风险区域内的其它AGV之间的最短距离值;控制器根据所述最短距离值和各个AGV的碰撞风险等级对应的距离阈值,识别出AGV的碰撞风险等级,并根据不同的碰撞风险等级分别采取相应的安全处理措施。本发明通过控制器借助于车路协同方式采集并存储各个AGV的状态信息和道路信息,可以有效地识别出AGV的碰撞风险等级,判定AGV的碰撞风险,进而采取相应的防碰撞措施。
-
公开(公告)号:CN105912524B
公开(公告)日:2019-08-20
申请号:CN201610218407.0
申请日:2016-04-09
Applicant: 北京交通大学 , 中国移动通信集团设计院有限公司
Abstract: 本发明实施例提供了一种基于低秩矩阵分解的文章话题关键词提取方法和装置。该方法主要包括:使用将词表征为实数值向量的工具训练数据预处理后的文章文本,得到词向量化文件,使用基于文本图模型的关键词抽取算法抽取数据预处理后的文章文本中的特定话题下每个事件的关键词,根据抽取的关键词查询词向量化文件,建立特定话题下的关键词矩阵;采用增广拉格朗日乘子算法求解关键词矩阵的低秩分解问题,得到关键词低秩矩阵,最终生成所述数据预处理后的文章文本中所述特定话题下的关键词。本发明采用低秩矩阵分解的方法生成微博等文章话题的关键词,有效的解决了微博等文章话题关键词的稀疏性问题,大大降低了非关键词数据噪声的干扰。
-
公开(公告)号:CN106897662A
公开(公告)日:2017-06-27
申请号:CN201710010146.8
申请日:2017-01-06
Applicant: 北京交通大学
Abstract: 本发明提供了一种基于多任务学习的人脸关键特征点的定位方法。该方法包括根据级联分类器对目标图像进行人脸区域检测,利用人眼检测器定位识别出的人脸区域中的人眼的位置,计算出人脸区域中的两眼间的距离;将人脸区域中的两眼间的距离与人脸平均模型中的两眼间的距离进行对比,根据比较结果确定人脸平均模型的缩放比例,利用缩放比例对人脸平均模型中的人脸区域进行位置调整,通过多任务学习方法定位目标图像对应的人脸区域中的人脸特征点。本发明通过利用不同特征的表征优势,结合多任务学习的框架,解决了监督梯度下降法中的特征点定位中的学习不足的问题,提升了人脸特征点定位的初始化模型的检测性能,提高了人脸关键特征点定位的准确性。
-
公开(公告)号:CN106127197A
公开(公告)日:2016-11-16
申请号:CN201610219337.0
申请日:2016-04-09
Applicant: 北京交通大学 , 中国移动通信集团设计院有限公司
Abstract: 本发明实施例提供了一种基于显著标签排序的图像显著性目标检测方法。该方法主要包括:将图像样本集中的每幅图像使用SLIC分割方法划分成多个图像区域,对每个图像区域提取视觉特征和背景对比度特征;根据每个图像区域的视觉特征、背景对比度特征和显著值标签组成训练集与测试集,使用基于显著标签排序的算法学习出每幅图像中每个图像区域的显著值;利用低秩矩阵恢复理论利用每个图像区域的显著值对每幅图像进行显著图的恢复,检测出图像中的显著目标。本发明的方法充分利用矩阵的核范数控制模型的复杂度,结合视觉特征相似相以及语义标签相似性,利用图拉普拉斯正则化约束之间的相关性,有效解决显著性标签空间较大但训练图像数量有限的问题。
-
公开(公告)号:CN101706780A
公开(公告)日:2010-05-12
申请号:CN200910092164.0
申请日:2009-09-03
Applicant: 北京交通大学
Abstract: 本发明提出了一种完全数据驱动的,基于视觉注意力机制模型的图像检索方法,从而在无需增加用户交互负担的情况下,尽可能地从用户的角度理解图像的语义,贴近用户的感知以提高检索性能。该方法优点在于:(1)将视觉认知理论中的视觉注意力机制理论引入到图像检索中;(2)该方法是完全自底向上的检索模式,无需用户反馈所带来的用户负担;(3)同时考虑了图像中的显著边缘信息及显著区域信息,实现了融合检索的模式,提高了图像检索的性能。
-
-
-
-
-
-
-
-
-