-
公开(公告)号:CN112800876B
公开(公告)日:2023-11-10
申请号:CN202110050152.2
申请日:2021-01-14
Applicant: 北京交通大学
IPC: G06V40/10 , G06V10/25 , G06V10/82 , G06N3/0464 , G06N3/048
Abstract: 本发明实施例提供了一种用于重识别的超球面特征嵌入方法,包括以下步骤:图像预处理阶段:从数据集中读取目标样本图像,对图像进行预处理;特征提取阶段:将预处理后的图像输入到深度网络模型提取图像的特征映射并结合注意力机制的全局池化操作得到特征向量;损失计算及训练优化阶段:根据所述特征向量和目标ID标签分别计算三种损失函数损失的值,根据损失的值计算深度卷积神经网络参数的梯度对模型进行优化;测试评估阶段:对训练完成的深度网络模型进行测试并根据测试结果调整超参数。本发明还提供了一种用于重识别的超球面特征嵌入系统,包括:图像预处理模块、特征提取模块、超球面特征嵌入模块和测试模块。
-
公开(公告)号:CN113496481B
公开(公告)日:2023-11-07
申请号:CN202110550635.9
申请日:2021-05-20
Applicant: 北京交通大学
IPC: G06T7/00 , G06T5/00 , G06V10/44 , G06V10/764 , G06V10/82 , G06N3/0464 , G06N3/084
Abstract: 本发明提供了一种少样本胸部X‑Ray图像的辅助检测方法。该方法包括:采集胸部的CXR图像,通过自适应的X‑Ray图像降噪模块对所述CXR图像进行图像预处理,利用预处理后的X‑Ray图像组成训练集和验证集;构造基于迁移学习的量子卷积神经网络,利用训练集和验证集对基于迁移学习的量子卷积神经网络和分类网络模型进行迭代优化处理,将迭代优化处理后的分类网络模型与量子卷积神经网络进行融合,得到辅助检测网络模型;利用辅助检测网络模型对待诊断的胸部的CXR图像进行诊断,输出待诊断的胸部的CXR图像的诊断结果。本发明通过融合基于迁移学习的分类网络模型与量子卷积神经网络得到辅助检测网络模型,结合了不同模型的优势,对检测准确率大大提升。
-
公开(公告)号:CN112734881B
公开(公告)日:2023-09-22
申请号:CN202011381287.9
申请日:2020-12-01
Applicant: 北京交通大学
IPC: G06T11/60 , G06F40/30 , G06F40/289 , G06N3/08 , G06N3/0464
Abstract: 本发明提供了一种基于显著性场景图分析的文本合成图像方法及系统。该方法包括:根据依赖关系解析将文本描述构建成依赖树,进行树转换以得到语义图,构建一个基于规则的场景图解析器,该解析器从依赖项语法表示映射到场景图;利用背景检索模块对场景图进行检索,得到与给定场景图最相关的候选分割图;通过背景融合模块对候选分割图进行编码得到背景特征;将前景对象和背景特征表示都输入到生成对抗网络中,得到文本合成图像模型,使用模型以测试文本描述为输入,生成具有前景和背景视觉上一致的高分辨率图像。本发明将基于显著性的场景图引入到图像合成中,通过探索跨模态文本语义空间配置,有效的提高了图像合成的准确率。
-
公开(公告)号:CN114140469B
公开(公告)日:2023-06-23
申请号:CN202111462219.X
申请日:2021-12-02
Applicant: 北京交通大学
IPC: G06T7/10 , G06N3/0464 , G06N3/084
Abstract: 本发明提供了一种基于多层注意力的深度分层图像语义分割方法。该方法包括:构建图像语义分割模型,对训练图像进行预处理,得到包括训练图像的特征图的分割图像;通过图像语义分割模型使用多个不同大小的池化核对特征图进行池化处理,使用注意力函数对每一池化核层处理后得到的特征图进行注意力的计算,利用添加权重的交叉熵损失函数计算损失,使用损失进行梯度反向传播,得到训练好的图像语义分割模型;利用训练好的图像语义分割模型进行待分割的图像的语义分割处理。本发明图像语义分割模型在分层网络中添加了注意力机制,获得了全局的上下文信息,抑制无用的噪声。使用加权的交叉熵损失函数,使每个神经元获得到全局的上下文信息。
-
公开(公告)号:CN116229586A
公开(公告)日:2023-06-06
申请号:CN202211434445.1
申请日:2022-11-16
Applicant: 北京交通大学
IPC: G06V40/50 , G06V40/16 , G06V10/82 , G06N3/0464
Abstract: 本发明提供一种轻量型图像数据隐私保护装置及方法,属于网络安全技术领域,包括:图像特征编码器模块,用于从图像中高效的捕获特征信息,将其转化为一系列的特征图;图像匿名化模块,用于消除特征图中包含的隐私信息,生成匿名化后的特征图;图像生成模块,用于对匿名化后的特征图进行重构,最终生成匿名化后的图像。本发明减少了参数量,减少了模型的计算量,节省了训练时间,可高效准确的提取图像特征,提升了模型的特征提取能力;使用贪心的思想,实现了对图像特征的匿名化,可以高效的将平均图像特征图重构出去身份后的图像,重构出的图像不仅实现了图像的隐私保护,而且还保留了部分与身份无关的图像信息。
-
公开(公告)号:CN111899284A
公开(公告)日:2020-11-06
申请号:CN202010816457.5
申请日:2020-08-14
Applicant: 北京交通大学
Abstract: 本发明实施例提供了一种基于参数化ESM网络的平面目标跟踪方法,包括:S1、获取目标模板T、第t帧的输入图像以及第t帧中的初始运动参数,由初始运动参数确定输入图像的目标区域It,对目标模板T和目标区域It进行预处理,包括图片缩放和归一化操作,使用特征提取网络对预处理后的目标模板T和第t帧的输入图像的目标区域It进行特征的提取,得到特征映射FT和FtI;S2、利用相似性度量模块计算两个特征映射FT和FtI之间的差异;S3、通过遮挡检测机制确定并排除目标在当前帧中被遮挡的部分,通过最小化当前帧中未被遮挡部分的差异求解目标的运动参数。本发明的方法更适用于目标跟踪任务,而且大大提高跟踪的准确性。
-
公开(公告)号:CN111881840A
公开(公告)日:2020-11-03
申请号:CN202010748159.7
申请日:2020-07-30
Applicant: 北京交通大学
Abstract: 本发明提供了一种基于图网络的多目标跟踪方法,图网络包括特征提取网络模块和图卷积匹配模块,具体包括以下步骤:S1、选取视频中的两帧图像输入特征提取网络模块;S2、通过特征提取网络模块对目标进行特征的提取,获取两帧图像各自的目标特征向量集FM和FN,M和N分别表示两帧图像中检测到目标的数量;S3、基于目标特征向量集FM和FN,计算目标特征向量之间的相似度,构建二部图;S4、通过所述图卷积匹配模块对二部图进行匹配,并利用损失函数进行图网络的反向传播获得最优的匹配矩阵。本发明提供的一种基于图网络的多目标跟踪方法,利用卷积网络对目标进行特征提取,并且提出的损失函数解决了目标数量不确定的问题,大大提高多目标跟踪的正确率。
-
公开(公告)号:CN110530369A
公开(公告)日:2019-12-03
申请号:CN201910779178.3
申请日:2019-08-22
Applicant: 北京交通大学
IPC: G01C21/20
Abstract: 本发明提供了一种基于时间窗的AGV任务调度方法。该方法包括:根据执行任务的AGV进入路径的时间、驶出路径的时间和任务需要经过的所有路径的长度,确定任务需要经过的所有路径的时间窗;基于任务需要经过的所有路径的时间窗和任务的初始优先级,计算出各个任务的动态优先级;根据各个任务的动态优先级利用任务调度策略对各个任务进行调度。本发明把AGV之间的避碰和冲突死锁问题的解决作为研究的重点,以图论模型以及单AGV路径规划算法为基础,针对多AGV系统中可能出现的问题,通过应用合适的多AGV路径规划算法,解决多AGV系统的避碰和冲突死锁问题,为每个AGV规划出无冲突的路径。
-
公开(公告)号:CN101706780A
公开(公告)日:2010-05-12
申请号:CN200910092164.0
申请日:2009-09-03
Applicant: 北京交通大学
Abstract: 本发明提出了一种完全数据驱动的,基于视觉注意力机制模型的图像检索方法,从而在无需增加用户交互负担的情况下,尽可能地从用户的角度理解图像的语义,贴近用户的感知以提高检索性能。该方法优点在于:(1)将视觉认知理论中的视觉注意力机制理论引入到图像检索中;(2)该方法是完全自底向上的检索模式,无需用户反馈所带来的用户负担;(3)同时考虑了图像中的显著边缘信息及显著区域信息,实现了融合检索的模式,提高了图像检索的性能。
-
公开(公告)号:CN112116626B
公开(公告)日:2024-04-26
申请号:CN202010773674.0
申请日:2020-08-04
Applicant: 北京交通大学
IPC: G06T7/20 , G06T7/11 , G06V10/764 , G06V10/82 , G06N3/0464 , G06N3/047 , G06N3/09
Abstract: 本发明实施例提供了一种基于柔性卷积的单目标跟踪方法,构建柔性卷积网络模型,所述柔性卷积网络模型包括共享层和特定域层,利用数据集对所述柔性卷积网络模型进行训练,所述方法包括:S1、获取原始视频序列,进行预处理;S2、将预处理后的视频序列输入柔性卷积网络模型,所述共享层通过卷积操作获取目标的共享特征,将共享特征输入特定域层进行目标与背景的二分类,然后再进行柔性RoI池化选择候选目标区域,并利用损失函数提高候选目标区域的精度,从而实现单目标跟踪。本发明实施例利用了基于柔性卷积的单目标跟踪方法,有效的改善了单目标跟踪中物体容易发生形变的问题,同时RoI池化提高候选目标区域的精度。
-
-
-
-
-
-
-
-
-