-
公开(公告)号:CN111583173B
公开(公告)日:2023-12-01
申请号:CN202010199264.X
申请日:2020-03-20
Applicant: 北京交通大学
Abstract: 本发明涉及一种RGB‑D图像显著性目标检测方法,包括如下步骤:1、从VGG主干网络中提取自顶向下的RGB‑D特征,然后将RGB‑D特征送入跟每个层级相对应的跨模态调制与选择单元;2、通过跨模态特征调制模块对多级RGB‑D特征进行调制;3、通过自适应特征选择模块得到与显著性相关的特征;通过显著显著性边缘预测部分生成显著性边缘图;4、求得修正特征;5、利用修正特征通过显著性图预测部分进行显著性图预测,并以第1层级输出的显著性图作为网络的最终输出显著性结果。本发明能够充分挖掘跨模态数据之间的互补信息,获得更具判别力的特征表达,生成更加完整、准确、边缘清晰的显著性图,且具有较强的背景抑制能力。
-
公开(公告)号:CN112508049B
公开(公告)日:2023-11-17
申请号:CN202011211533.6
申请日:2020-11-03
Applicant: 北京交通大学 , 中国移动通信集团设计院有限公司
IPC: G06V10/762 , G06V10/40
Abstract: 本发明提供的一种基于组稀疏优化的类聚方法,首先是数据的处理,其目的在于获得数据集样本间的相似度矩阵目标矩阵、误差最小项和稀疏约束项;第二,构建基于组稀疏约束的优化模型,其目的在于利用更为强力的组稀疏约束来抑制噪声影响;之后,本发明提供一种基于交替方向乘子(Alternating Direction Method of Multipliers)的优化算法来快速求解所构建的优化模型;最后,本发明提供一种快速的优化聚类算法,其目的是合并冗余的聚类结果,进一步提升性能。本发明的方法约束每个样本只能由一个样本近似表示,从而可以有效的提升算法鲁棒性;另一方面,所得到的目标矩阵无需再进行谱聚类分析,从而达到端到端的聚类效果。
-
公开(公告)号:CN112116620B
公开(公告)日:2023-09-22
申请号:CN202010973672.6
申请日:2020-09-16
Applicant: 北京交通大学
Abstract: 本发明提供了一种室内图像语义分割与涂装展示的方法,获取一张包含目标墙体的室内家居图像并发送给服务器,通过服务器软件接收图像数据并且使用基于神经网络算法的语义分割处理程序获得图像数据的特征,根据用户设定的RGB参数值对图像数据中所获得的目标墙体像素进行颜色涂装。涂装完成的室内家居图像数据,由服务器软件发送给Android手机客户端软件,并展示在客户端软件上。本发明提供的方法使用了卷积神经网络算法来进行墙体语义标签的像素级预测,通过卷积神经网络算法,对目标图像数据进行像素级预测,调用OpenCV函数库对包含墙体语义标签的像素进行颜色自动填充,最终获得目标墙体颜色涂装后结果图,无需大量人力物力参与复杂的建模过程。
-
公开(公告)号:CN116645551A
公开(公告)日:2023-08-25
申请号:CN202310569795.7
申请日:2023-05-19
Applicant: 北京交通大学
IPC: G06V10/764 , G06V10/77 , G06V10/74 , G06V10/771
Abstract: 本发明提供了一种基于多尺度的图像隐写特征的检测方法。该方法包括:获取包括载体图像类和载密图像类的待检测图像集;从待检测图像集中提取多个特征分量,去除无用特征分量,得到剩余特征分量序列;对所述剩余特征分量序列中的每个特征分量赋予权重值,对每个特征分量的权重值进行迭代更新,对每个特征分量的最终的权重值进行降序排列,选取排序靠前的设定数量个特征分量作为最终选取的特征分量;采用Fisher线性判别FLD分类器对所述最终选取的特征分量序列进行图像隐写检测,得到所述待检测图像集的图像隐写检测结果。本发明提出的针对GFR特征的图像隐写分析特征检测方法能在保持检测正确率的同时,快速有效地降低特征维数,较为理想地提高了GFR特征的实用性。
-
公开(公告)号:CN114613497A
公开(公告)日:2022-06-10
申请号:CN202210295832.5
申请日:2022-03-24
Applicant: 北京交通大学
Abstract: 本发明提供了一种基于GBDT样例级的病患样本的智能医学辅助诊断方法。该方法包括:根据历史病患数据构建自适应AdaGBDT模块,利用AdaGBDT模块中的决策树通过迭代训练过程计算待诊断的病患样本的诊断结果;根据病患样本的决策路径计算病患样本的可解释特征嵌入,将AdaGBDT模型不同决策树之间的结果进行累加,得到病患样本的特征重要性嵌入;利用案例推理系统在嵌入空间中使用自加权距离度量在历史病患案例数据库中寻找与所述病患样本最相似的多个案例,将多个案例与病患样本的诊断结果进行比较,如果比较结果为不一致,则将所述病患样本标注为难样本。本发明方法提高了对预测结果不一致案例的关注度,从而有助于提高系统的召回率,减少了漏检案例的数量。
-
公开(公告)号:CN110020597B
公开(公告)日:2022-03-11
申请号:CN201910145699.3
申请日:2019-02-27
Applicant: 中国医学科学院北京协和医院 , 北京交通大学
IPC: G06V40/18 , G06V10/764 , G06K9/62 , G16H50/20
Abstract: 本发明提供了一种用于头晕/眩晕辅诊的眼部视频处理方法及系统,所述方法包括:获取用户眼部视频,提取所述眼部视频中所有帧的图像数据;通过眼震识别模型根据所有帧的图像数据识别所有帧中包括眼震图像的至少一帧;根据所述包括眼震图像的至少一帧的图像数据形成眼震视频以用于辅诊,本发明从眼部视频中提取眼震视频,从而提高眼部视频的辅助诊断效果。
-
公开(公告)号:CN112949630A
公开(公告)日:2021-06-11
申请号:CN202110224888.7
申请日:2021-03-01
Applicant: 北京交通大学
Abstract: 本发明提供了一种基于边框分级筛选的弱监督目标检测方法,包括:对训练集中所有图片中分别加入两种不同的噪声;采用弱监督目标检测算法进行检测生成检测框,并采用NMS方法将检测框的得分高于第一阈值的检测框作为初筛后的检测框;计算出每个初筛后的检测框的稳定度,利用NMS方法将所有检测框中稳定度大于第二阈值的检测框作为稳定框;计算所有检测框的评分和等级,利用NMS方法对所有初筛后的检测框进行筛选,将评分大于第三阈值的检测框作为二筛后的检测框;计算可靠性,用脚本对二筛后的检测框的信息制作成像素级标签;采用改进的基于Faster R‑CNN人工神经网络对像素级标签训练来定位识别检测,本方法可以减少检测时间。
-
公开(公告)号:CN112348033A
公开(公告)日:2021-02-09
申请号:CN202011100360.0
申请日:2020-10-15
Applicant: 北京交通大学
Abstract: 本发明涉及一种协同显著性目标检测方法,具体包括如下步骤:给定一个包含N幅相关图像的图像组;步骤2:使用共享的骨干特征提取器来获取深层特征;步骤3:通过在线的图内显著性引导模块生成图内显著性特征;步骤4:采用集成‑分发结构聚合群组语义特征并自适应地将其分配给不同的个体,以实现协同显著性特征学习;步骤5:将低分辨率的协同显著性特征送入群组一致性保持解码器和协同显著性预测头部件来一致性地突出协同显著性目标并生成全分辨率的协同显著性图。通过本发明提供方法能够生成更加准确、完整的协同显著性图,且能够有效抑制无关干扰的影响,图间一致性保持好。
-
公开(公告)号:CN108717680B
公开(公告)日:2020-12-08
申请号:CN201810241734.7
申请日:2018-03-22
Applicant: 北京交通大学
Abstract: 本发明提供了一种基于全稠密连接网络的空域图像隐写分析方法。该方法包括:构建包括多个稠密连接块的全稠密连接网络,稠密连接块包括多组卷积层和一层平均池化层,相邻的稠密连接块相连,按照从低层到高层的顺序稠密连接块的网络宽度以2的指数倍增长;通过卷积操作获取待识别的空域图像的原始特征图,将原始特征图输入到全稠密连接网络,对原始特征图进行多层的卷积和池化操作,得到多维的特征向量;通过全连接层将多维的特征向量降维为2维的特征向量,将2维的特征向量输入softmax激活函数,得到空域图像是隐写图像还是普通图像的预测概率值。本发明可以促进更广泛的图像特征重用,强化了隐写的微弱信号在网络中的传播,提升了隐写分析的检测性能。
-
公开(公告)号:CN111260565A
公开(公告)日:2020-06-09
申请号:CN202010002973.4
申请日:2020-01-02
Applicant: 北京交通大学
Abstract: 本发明提供了一种本发明实施例的基于畸变分布图的畸变图像矫正方法及系统,用以解决畸变图像矫正的相机模型及特征提取局限性问题。所述畸变图像矫正方法,通过构建畸变分布图,提取畸变分布图引导的语义特征,再与结构特征进行多模特征融合,在局部结构特征和全局语义特征之间进行有意义的信息传递,根据语义-结构混合向量输出矫正图像。本发明基于畸变分布图的畸变图像矫正方法,同时适用于多种相机模型,具有普适性,同时能够有效地提取和感知图像的语义和结构特征,从而有效地去除不同类型的几何畸,更合理地还原真实的物理场景,自动且灵活地矫正任意畸变图像,提高了矫正效果。
-
-
-
-
-
-
-
-
-