-
公开(公告)号:CN117853867A
公开(公告)日:2024-04-09
申请号:CN202410022359.2
申请日:2024-01-05
Applicant: 北京交通大学
IPC: G06V10/82 , G06V10/764 , G06N3/096
Abstract: 本发明提供了一种基于数据增强的小样本学习方法。该方法包括:通过RotMix模块和RotCom模块对源数据进行数据增强处理,将增强后的数据传输给MixNet模型;MixNet模型通过特征提取模块、类别多样性编码模块对增强后的数据集进行特征提取与编码,得到特征表示;MixNet模型通过对比学习模块对所述特征表示进行对比学习,得到优化后的特征表示,通过比较不同样本对的特征表示,优化MixNet模型的区分能力;将优化后的特征表示转换为源数据的分类结果,并进行展示。本发明方法从数据增强开始,通过RotMix和RotCom引入多样性和复杂性,再经由MixNet模型进行深度特征提取和类别多样性编码。对比学习模块进一步优化了模型的区分能力。最终将处理结果以用户友好的方式呈现。
-
公开(公告)号:CN107561328B
公开(公告)日:2019-06-14
申请号:CN201710726579.3
申请日:2017-08-22
Applicant: 北京交通大学 , 北京航天测控技术有限公司
IPC: G01R13/00
Abstract: 本公开是关于一种模拟硬件的信号数据生成方法及装置。该方法包括:获取信号参数、信号源参数、数据线参数及待模拟硬件的硬件参数;根据所述信号参数、信号源参数、数据线参数及所述硬件参数计算信号数据的噪声值;根据所述信号参数及所述噪声值生成所述信号数据。该技术方案通过软件模拟硬件信号源,可以直接在PC和示波器上独立运行,通过输入不同参数灵活更改信号特征,降低硬件购买成本。更加简单易用,可操作性强,参数可调范围大,不会因为参数设置不对造成硬件的损坏。
-
公开(公告)号:CN107528658A
公开(公告)日:2017-12-29
申请号:CN201710652017.9
申请日:2017-08-02
Applicant: 北京交通大学 , 北京航天测控技术有限公司
CPC classification number: H04J3/0617 , H04L7/0037
Abstract: 本公开是关于一种时钟恢复方法及装置。该方法包括:确定被测信号中当前分析点之前的跳变点;根据当前分析点的标识、跳变点的标识以及当前分析点所在周期的采样点的一半,计算出当前延迟点数;计算当前延迟点数与存储的前一次计算得到的延迟点数的差值,得到当前相位增量;根据当前相位增量对当前分析点进行调整,将调整后的分析点作为新的当前分析点;比较当前相位增量与存储的前预设次数计算得到的相位增量,当相同时,结束时钟恢复操作;当不同时,根据新的当前分析点重复进行上述时钟恢复的步骤。该技术方案消除了硬件设备对时钟恢复准确度的影响,提高了时钟恢复结果的准确度,完全采用软件实现,大大降低了成本,时钟恢复的速度较快。
-
公开(公告)号:CN116912727A
公开(公告)日:2023-10-20
申请号:CN202310669142.6
申请日:2023-06-07
Applicant: 北京交通大学
IPC: G06V20/40 , G06V40/20 , G06V10/774 , G06V10/82 , G06V10/42 , G06V10/80 , G06N3/0464 , G06N3/08
Abstract: 本发明提供了一种基于时空特征增强网络的视频人体行为识别方法。该方法包括:将训练视频数据的帧图像输入到视频人体行为识别模型中,通过局部时空特征增强模块提取出帧图像中的帧级别运动的局部时空特征,利用全局时空特征增强模块获取帧图像中的视频级运动的全局时空特征,通过多特征融合模块融合局部时空特征和全局时空特征,将得到的最终的特征表示输入到全连接层,全连接层输出视频数据中的人体行为识别结果;当重复执行上述处理过程迭代训练视频人体行为识别模型达到设定次数后,得到训练好的视频人体行为识别模型,利用训练好的视频人体行为识别模型对待检测的视频数据进行人体行为识别。本发明方法可以高效地从视频中识别出行人的行为。
-
公开(公告)号:CN116245913A
公开(公告)日:2023-06-09
申请号:CN202310117211.2
申请日:2023-01-30
Applicant: 北京交通大学 , 艾弗世(苏州)专用设备股份有限公司
IPC: G06T7/246 , G06V10/82 , G06N3/08 , G06N3/0464 , G06V20/40
Abstract: 本发明提供一种基于层次化上下文引导的多目标跟踪方法,并提出了一种新的分层上下文引导网络,该网络通过分层地视频帧全局处理、局部处理和对象包围框处理来执行检测、包围框特征提取和对象位置细化。该跟踪器分别以全局和局部的方式学习视频帧的时间和空间上下文特征,引导多尺度特征聚合,从而定位感兴趣的区域,提取丰富的包围框特征。这样,每个检测的包围框除了语义信息外,还包含上下文关系信息,减少了不完整或不清楚的对象的重要信息的丢失。基于学习到的上下文特征,设计了一个上下文引导的对象位置细化模块,通过传播对象在每一帧的包围框特征来学习目标对象轨迹片段的代表性特征,并根据代表性特征生成位置细化后的对象。
-
公开(公告)号:CN111291705A
公开(公告)日:2020-06-16
申请号:CN202010111738.0
申请日:2020-02-24
Applicant: 北京交通大学
Abstract: 本发明提供了一种跨多目标域行人重识别方法,首先使用分布对齐模型对源域、目标域的图片进行域对齐和场景对齐操作,从而使域对齐的图片和场景对齐的图片分布与目标域的图片分布一致,提高基于属性编码的行人重识别模型准确率;将域对齐图片的识别视为分类任务,将域对齐的图片结合对应的摄像头属性输入到基于属性编码的基于属性编码的行人重识别模型中,利用交叉熵损失优化模型参数,将场景对齐的识别视为度量任务,将场景对齐的图片结合摄像头属性输入到基于属性编码的基于属性编码的行人重识别模型中,利用难采样三元组损失优化模型参数。本发明中分布对齐模型和基于属性编码的基于属性编码的行人重识别模型单独训练,分别优化,进而提高行人重识别的准确率。
-
公开(公告)号:CN109800710A
公开(公告)日:2019-05-24
申请号:CN201910049231.4
申请日:2019-01-18
Applicant: 北京交通大学
Abstract: 本发明提供一种行人重识别系统及方法,属于行人重识别技术领域。该系统通过基于稀疏编码的深度学习网络对不同的原始图像进行图像重构,得到对应的重构矩阵;结合注意力机制提取各重构矩阵中的特征向量;计算所述特征向量的分类损失结果和验证损失结果;根据所述分类损失结果和所述验证损失结果判断特征提取模块是否收敛,若收敛,则计算不同重构矩阵的特征向量之间的差异度,若差异度大于设定的阈值,则不属于同一行人,若差异度小于设定的阈值,则属于同一行人。本发明使用重构子网络对图像进行重构以提高图像清晰度,使用多任务损失函数拉近相同个体之间的距离,从而提高了网络的特征表示能力和判别能力,提高行人重识别准确率。
-
公开(公告)号:CN106201949B
公开(公告)日:2019-03-29
申请号:CN201610519381.3
申请日:2016-07-04
Applicant: 北京交通大学 , 北京航天测控技术有限公司
IPC: G06F13/38
Abstract: 本发明提供眼图抖动的分析方法,包括:采集一串中间无采集空白区的连续信号,生成连续信号对应的眼图;确定眼图的基准点;将眼图中的计算范围内的数据生成直方图;对直方图的数据进行归一化处理;从归一化后的直方图的左右两端分别遍历,分别确定归一化后的直方图的左尾部和右尾部;得到左尾部和右尾部对应的高斯分布的初始方差和初始均值;分别获取归一化后的直方图的左尾部和右尾部与连续信号的实际左尾部和实际右尾部之间的拟合度,并将拟合度的最小值所对应的均值、方差分别作为归一化后的直方图的左尾部和右尾部的最优均值和最优方差;生成左尾部和右尾部的实际均值、左尾部和右尾部的实际方差;确定随机性抖动;或者确定性抖动的峰峰值。
-
公开(公告)号:CN107528658B
公开(公告)日:2019-02-19
申请号:CN201710652017.9
申请日:2017-08-02
Applicant: 北京交通大学 , 北京航天测控技术有限公司
Abstract: 本公开是关于一种时钟恢复方法及装置。该方法包括:确定被测信号中当前分析点之前的跳变点;根据当前分析点的标识、跳变点的标识以及当前分析点所在周期的采样点的一半,计算出当前延迟点数;计算当前延迟点数与存储的前一次计算得到的延迟点数的差值,得到当前相位增量;根据当前相位增量对当前分析点进行调整,将调整后的分析点作为新的当前分析点;比较当前相位增量与存储的前预设次数计算得到的相位增量,当相同时,结束时钟恢复操作;当不同时,根据新的当前分析点重复进行上述时钟恢复的步骤。该技术方案消除了硬件设备对时钟恢复准确度的影响,提高了时钟恢复结果的准确度,完全采用软件实现,大大降低了成本,时钟恢复的速度较快。
-
公开(公告)号:CN104463909A
公开(公告)日:2015-03-25
申请号:CN201410714033.2
申请日:2014-11-28
Applicant: 北京交通大学长三角研究院
CPC classification number: G06T7/251 , G06T2207/10016 , G06T2207/20081
Abstract: 本发明涉及计算机视频处理技术,具体是一种基于信度组合地图模型的视觉目标跟踪方法。该包括以下步骤:1)建立训练数据库;2)提取训练数据库的特征,训练二维析取单元分类器和二维析取分类器;3)建立首帧目标物体的信度组合地图;4)提取当前帧背景框的特征;5)得到信度图;6)定位目标,得到若干个候选窗口;7)将候选窗口的信度组合地图与前帧保存的信度组合地图进行匹配,得到最佳的目标位置信息;8)从组合地图匹配中得到更新样本,每五帧更新分类器,信度图模型,以及跟踪器状态等;9)重复步骤4)至步骤8)直到视频结束。本发明能够在计算机视觉目标跟踪过程中有效抑制目标漂移问题,提高跟踪器的稳定性。
-
-
-
-
-
-
-
-
-