-
公开(公告)号:CN118301366A
公开(公告)日:2024-07-05
申请号:CN202410226307.7
申请日:2024-02-29
Applicant: 北京交通大学
IPC: H04N19/51 , H04N19/86 , H04N19/172
Abstract: 本发明提供了一种双向帧间预测引导的视频编码方法。该方法包括:编码端基于参考帧采用双向预测方法对待编码的中间帧进行初步预测,生成预测帧;通过残差引导的编码器组件编码所述中间帧和所述预测帧之间的差异,生成潜在特征;解码端基于参考帧通过双向预测网络得到预测帧,将所述潜在特征补偿到所述预测帧上,生成重建的中间帧。本发明方法使用伪影去除编码器来识别伪影的出现区域,利用预测帧与目标帧之间的残差作为关键区域的引导,使得编码的码率能够有针对性地聚焦在伪影区域上。在解码端时空先验解码器运用已经编码帧间的关联性来恢复当前帧,有效地减少了对重复信息的编码。
-
公开(公告)号:CN112347859B
公开(公告)日:2024-05-24
申请号:CN202011100396.9
申请日:2020-10-15
Applicant: 北京交通大学
Abstract: 本发明涉及一种光学遥感图像显著性目标检测方法,步骤包括:步骤S1、建立稠密注意力流网络,所述稠密注意力流网络包括注意力流引导的特征编码模块和渐进式特征解码模块;步骤S2、导入光学遥感图像;步骤S3、采用注意力流引导的特征编码模块对光学遥感图像进行处理,生成更具判别力的增强特征,注意力流引导的特征编码模块主要包括全局上下文感知注意力模块和稠密注意力流结构,步骤S4、采用渐进式特征解码模块对步骤S3的增强特征进行解码,在特征解码阶段,将深层特征与浅层特征逐步融合,并在显著性图和显著性边缘图的监督下,生成多个侧输出和最终输出。
-
公开(公告)号:CN111242238B
公开(公告)日:2023-12-26
申请号:CN202010070635.4
申请日:2020-01-21
Applicant: 北京交通大学
IPC: G06V10/80
Abstract: 本发明提供一种RGB‑D图像显著性目标获取的方法,提出一种交织融合网络,用于相互指导RGB‑D特征的联合提取,并通过网络浅层和深层结构密集地整合跨模态的互补信息,这样能自动且充分地抓取潜在的有用信息,并减少由于跨模态数据的不一致性引起的干扰。与单独提取RGB‑D特征后将其整合方式相比,RGB‑D特征的交互引导有利于促进跨模态信息的互补性融合,缓解不同模态中的不一致问题;还可以降低因为成像环境或设备引起的低质深度图带来的负面影响。通过在损失函数构造时引入对抗损失项,为RGB‑D显著性目标检测提供全局语义约束,使检测结果不仅关注像素级显著性属性,还能捕获对象级的全局语义特征,生成具有完整结构、清晰边界的显著性图。
-
公开(公告)号:CN111583173B
公开(公告)日:2023-12-01
申请号:CN202010199264.X
申请日:2020-03-20
Applicant: 北京交通大学
Abstract: 本发明涉及一种RGB‑D图像显著性目标检测方法,包括如下步骤:1、从VGG主干网络中提取自顶向下的RGB‑D特征,然后将RGB‑D特征送入跟每个层级相对应的跨模态调制与选择单元;2、通过跨模态特征调制模块对多级RGB‑D特征进行调制;3、通过自适应特征选择模块得到与显著性相关的特征;通过显著显著性边缘预测部分生成显著性边缘图;4、求得修正特征;5、利用修正特征通过显著性图预测部分进行显著性图预测,并以第1层级输出的显著性图作为网络的最终输出显著性结果。本发明能够充分挖掘跨模态数据之间的互补信息,获得更具判别力的特征表达,生成更加完整、准确、边缘清晰的显著性图,且具有较强的背景抑制能力。
-
公开(公告)号:CN112508049B
公开(公告)日:2023-11-17
申请号:CN202011211533.6
申请日:2020-11-03
Applicant: 北京交通大学 , 中国移动通信集团设计院有限公司
IPC: G06V10/762 , G06V10/40
Abstract: 本发明提供的一种基于组稀疏优化的类聚方法,首先是数据的处理,其目的在于获得数据集样本间的相似度矩阵目标矩阵、误差最小项和稀疏约束项;第二,构建基于组稀疏约束的优化模型,其目的在于利用更为强力的组稀疏约束来抑制噪声影响;之后,本发明提供一种基于交替方向乘子(Alternating Direction Method of Multipliers)的优化算法来快速求解所构建的优化模型;最后,本发明提供一种快速的优化聚类算法,其目的是合并冗余的聚类结果,进一步提升性能。本发明的方法约束每个样本只能由一个样本近似表示,从而可以有效的提升算法鲁棒性;另一方面,所得到的目标矩阵无需再进行谱聚类分析,从而达到端到端的聚类效果。
-
公开(公告)号:CN112116620B
公开(公告)日:2023-09-22
申请号:CN202010973672.6
申请日:2020-09-16
Applicant: 北京交通大学
Abstract: 本发明提供了一种室内图像语义分割与涂装展示的方法,获取一张包含目标墙体的室内家居图像并发送给服务器,通过服务器软件接收图像数据并且使用基于神经网络算法的语义分割处理程序获得图像数据的特征,根据用户设定的RGB参数值对图像数据中所获得的目标墙体像素进行颜色涂装。涂装完成的室内家居图像数据,由服务器软件发送给Android手机客户端软件,并展示在客户端软件上。本发明提供的方法使用了卷积神经网络算法来进行墙体语义标签的像素级预测,通过卷积神经网络算法,对目标图像数据进行像素级预测,调用OpenCV函数库对包含墙体语义标签的像素进行颜色自动填充,最终获得目标墙体颜色涂装后结果图,无需大量人力物力参与复杂的建模过程。
-
公开(公告)号:CN116645551A
公开(公告)日:2023-08-25
申请号:CN202310569795.7
申请日:2023-05-19
Applicant: 北京交通大学
IPC: G06V10/764 , G06V10/77 , G06V10/74 , G06V10/771
Abstract: 本发明提供了一种基于多尺度的图像隐写特征的检测方法。该方法包括:获取包括载体图像类和载密图像类的待检测图像集;从待检测图像集中提取多个特征分量,去除无用特征分量,得到剩余特征分量序列;对所述剩余特征分量序列中的每个特征分量赋予权重值,对每个特征分量的权重值进行迭代更新,对每个特征分量的最终的权重值进行降序排列,选取排序靠前的设定数量个特征分量作为最终选取的特征分量;采用Fisher线性判别FLD分类器对所述最终选取的特征分量序列进行图像隐写检测,得到所述待检测图像集的图像隐写检测结果。本发明提出的针对GFR特征的图像隐写分析特征检测方法能在保持检测正确率的同时,快速有效地降低特征维数,较为理想地提高了GFR特征的实用性。
-
公开(公告)号:CN114613497A
公开(公告)日:2022-06-10
申请号:CN202210295832.5
申请日:2022-03-24
Applicant: 北京交通大学
Abstract: 本发明提供了一种基于GBDT样例级的病患样本的智能医学辅助诊断方法。该方法包括:根据历史病患数据构建自适应AdaGBDT模块,利用AdaGBDT模块中的决策树通过迭代训练过程计算待诊断的病患样本的诊断结果;根据病患样本的决策路径计算病患样本的可解释特征嵌入,将AdaGBDT模型不同决策树之间的结果进行累加,得到病患样本的特征重要性嵌入;利用案例推理系统在嵌入空间中使用自加权距离度量在历史病患案例数据库中寻找与所述病患样本最相似的多个案例,将多个案例与病患样本的诊断结果进行比较,如果比较结果为不一致,则将所述病患样本标注为难样本。本发明方法提高了对预测结果不一致案例的关注度,从而有助于提高系统的召回率,减少了漏检案例的数量。
-
公开(公告)号:CN110020597B
公开(公告)日:2022-03-11
申请号:CN201910145699.3
申请日:2019-02-27
Applicant: 中国医学科学院北京协和医院 , 北京交通大学
IPC: G06V40/18 , G06V10/764 , G06K9/62 , G16H50/20
Abstract: 本发明提供了一种用于头晕/眩晕辅诊的眼部视频处理方法及系统,所述方法包括:获取用户眼部视频,提取所述眼部视频中所有帧的图像数据;通过眼震识别模型根据所有帧的图像数据识别所有帧中包括眼震图像的至少一帧;根据所述包括眼震图像的至少一帧的图像数据形成眼震视频以用于辅诊,本发明从眼部视频中提取眼震视频,从而提高眼部视频的辅助诊断效果。
-
公开(公告)号:CN112949630A
公开(公告)日:2021-06-11
申请号:CN202110224888.7
申请日:2021-03-01
Applicant: 北京交通大学
Abstract: 本发明提供了一种基于边框分级筛选的弱监督目标检测方法,包括:对训练集中所有图片中分别加入两种不同的噪声;采用弱监督目标检测算法进行检测生成检测框,并采用NMS方法将检测框的得分高于第一阈值的检测框作为初筛后的检测框;计算出每个初筛后的检测框的稳定度,利用NMS方法将所有检测框中稳定度大于第二阈值的检测框作为稳定框;计算所有检测框的评分和等级,利用NMS方法对所有初筛后的检测框进行筛选,将评分大于第三阈值的检测框作为二筛后的检测框;计算可靠性,用脚本对二筛后的检测框的信息制作成像素级标签;采用改进的基于Faster R‑CNN人工神经网络对像素级标签训练来定位识别检测,本方法可以减少检测时间。
-
-
-
-
-
-
-
-
-