-
公开(公告)号:CN103544717B
公开(公告)日:2016-09-28
申请号:CN201310500171.6
申请日:2013-10-22
Applicant: 北京交通大学长三角研究院
IPC: G06T9/00
Abstract: 本发明提供了一种基于SIFT特征的二阶段三维图像压缩编码方法,包括阶段一和阶段二两个阶段,阶段一首先对视点C1和C2图像提取SIFT特征点并进行初步特征点匹配,然后用RANSAC算法对提取的特征点进行去误匹配并求出视点C1到C2的变换矩阵H1;由视点C1的图像和变换矩阵H1重构出参考图像C21;同理由视点C3和C2求出变换矩阵H2和参考图像C23;接下来分别将重构的参考图像C21、C23与C2作相关性决策,选出与视点C2最相关的重建图像C以及对应的变换矩阵H;对变换矩阵H做定长编码即形成了阶段一的码流;阶段二是在阶段一的基础上,用视点C2与阶段一中选出的重建图像C相减得一个残差,编码残差和变换矩阵H组成阶段二码流。
-
公开(公告)号:CN103501441B
公开(公告)日:2016-08-17
申请号:CN201310413810.5
申请日:2013-09-11
Applicant: 北京交通大学长三角研究院
IPC: H04N19/89 , H04N19/105 , H04N19/51 , H04N19/61 , H04N19/154 , H04N19/587
Abstract: 本发明提供了一种基于人类视觉系统的多描述视频编码方法,其过程包括:首先读入一视频序列,对其进行奇偶帧分离,得到主信息奇数帧子序列X1和偶数帧子序列X2;根据JND错误预测机制分别得到重建出来的偶数帧序列和奇数帧序列经过编码模式选择模块处理后得到奇数帧一路的冗余信息Y2和偶数帧一路的冗余信息Y1;将主信息X1,X2和冗余信息Y1,Y2分别通过标准编码器和冗余信息编码器进行编码;编码后,X1和Y2形成描述1,X2和Y1形成描述2,通过不同信道传输到解码端进行解码。
-
公开(公告)号:CN104537627A
公开(公告)日:2015-04-22
申请号:CN201510009690.1
申请日:2015-01-08
Applicant: 北京交通大学
IPC: G06T5/00
Abstract: 本发明涉及数字图像处理领域,公开了一种深度图像的后处理方法。本发明首先通过采用时间复杂度较低的经典插值算法对深度图像进行上采样,再对上采样后的深度图像进行边缘线校正、边界区域修复两次后处理。采用本发明的技术方案能够在提高上采样深度图像良好的主观视觉效果的同时,通过边界校正,使深度图像边界与对应颜色图像的几何边界一致,有效改善了合成视点的质量,消除了上采样带来的边界模糊现象。
-
公开(公告)号:CN113822147B
公开(公告)日:2023-12-15
申请号:CN202110890068.1
申请日:2021-08-04
Applicant: 北京交通大学
IPC: G06V20/40 , G06V10/26 , G06V10/82 , G06V10/44 , G06V10/52 , G06N3/0455 , G06T9/00 , H04N19/17 , H04N19/85
Abstract: 本发明属于信息压缩处理技术领域,涉及一种协同机器语义任务的深度压缩方法,包括:将图像x输入基网络,输出压缩特征fxn;多尺度融合模块输出多尺度语义特征fsn;将fxn和fsn通过通道级联,获得组合特征z;z依次经量化、算术编码和算术解码,获得隐特征 传送到解码器,被分成压缩特征 和语义特征 再分别进行解码,分别得到解压缩图像 和语义分割图像s;输入后处理增强模块,得到解压缩图像 本发明提出一种端到端的相互增强网络,将图像压缩和语义分割集成到统一的框架。框架基于编解码器结构,在编码器中设计融合模块,提高语义分割的准确性,设计增强模块,增强压缩任务的重建图片。本发明在图像压缩和语义分割上实现相互增强。
-
公开(公告)号:CN113808032B
公开(公告)日:2023-12-15
申请号:CN202110892066.6
申请日:2021-08-04
Applicant: 北京交通大学
IPC: G06V10/30 , G06V10/52 , G06V10/80 , G06V10/82 , G06N3/0455 , G06N3/0464 , G06N3/048
Abstract: 本发明为一种多阶段渐进式的图像去噪算法,构建多阶段渐进式的去噪网络;每个阶段开始前使用卷积层和CAB模块提取含噪图像的浅层特征;第一阶段的浅层特征经过级联的CAB处理得到局部空间特征,经过U‑Net网络处理得到上下文语义信息;采用特征融合模块对局部空间特征和语义信息进行融合,得到第一阶段融合后的特征;第一阶段融合后的特征与第二阶段的浅层特征进行相加,相加后的特征经过级联的CAB处理得到局部空间特征,经过U‑Net网络处理得到语义信息;采用特征融合模块对局部空间特征和上下文语义信息进行融合,得到第二阶段融合后的特征;重复上述操作,得到第n阶段融合后的特征,然后经过卷积层处理后得到清晰图像。
-
公开(公告)号:CN115188461A
公开(公告)日:2022-10-14
申请号:CN202210210314.9
申请日:2022-03-03
Applicant: 北京交通大学
Abstract: 本发明提供了一种基于Transformer子空间表征学习的因果推理辅助诊断方法。该方法包括:通过Transformer网络从电子病历数据中提取患者的特征信息;通过自监督学习的方式对患者的特征信息进行扩容后,映射到低维的共享子空间和独立子空间,得到患者的低维共享特征表示和特异特征表示,通过堆叠两种特征表示得到患者的低维特征表示;使用对抗模型来平衡患者的低维特征表示中不同分组之间的分布,得到分布平衡的低维特征表示并输入到前馈网络,得到患者的预测诊断结果。本发明可以应用于辅助诊断预测中,使用患者的生理数据及实验室数据等结构化信息较好地做出诊断,为医生诊断时提供参考意见,可以解决现有的方案中存在的选择偏差和缺乏可解释性等问题。
-
公开(公告)号:CN113709455A
公开(公告)日:2021-11-26
申请号:CN202111138182.5
申请日:2021-09-27
Applicant: 北京交通大学
IPC: H04N19/103 , H04N19/20 , H04N19/30 , H04N19/42
Abstract: 本发明公开一种使用Transformer的多层次图像压缩方法,以Transformer模块为主,辅之以卷积层神经网络的多层次的图像压缩框架,Transformer模块包括多层编码器组件组件、解码器组件,编码端采用编码器组件,解码端采用解码器组件;解码器拥有交叉注意力机制,该交叉注意力机制将解码器的输入的自注意力特征与编码器的自注意力特征进行联合计算,对压缩压缩框架编码器的编码端学习到的特征充分利用。本发明保留了Transformer中的解码器组件及其交叉注意力机制,应用在解码端以实现对编码端学习到的特征的充分利用,达到更好的效果。且本发明框架对硬件的需求更小。
-
公开(公告)号:CN110009683A
公开(公告)日:2019-07-12
申请号:CN201910250262.6
申请日:2019-03-29
Applicant: 北京交通大学
Abstract: 本发明实施例提供了一种基于MaskRCNN的实时平面上物体检测方法,其特征在于,包括:步骤1获取视频流中的每帧图像,基于ORBSLAM2计算该帧的位姿,保存该帧的位姿及对应的图像到全局数组中;步骤2基于ORBSLAM2增加深度学习检测线程,所述深度学习线程从全局数组中抽取数据,提取数组中相邻两帧图像,并通过位姿分别计算相邻两帧的投影图,通过MaskRCNN检测第二帧投影图上物体所包含的像素点,根据相邻两帧投影图特征匹配能够得到特征点的平移关系从而求出第一帧投影图上物体的像素点,并将所述两帧图像的像素点根据位姿进行逆变换,将逆变换后的匹配点通过三角化计算出物体的世界坐标;步骤3根据当前帧的位姿和所述物体的世界坐标计算物体当前帧的像素坐标,相机位姿若满足平面,则对于检测的所述物体不渲染,仅渲染非检测物体,并在检测的所述物体上插入AR物体。
-
公开(公告)号:CN118301366A
公开(公告)日:2024-07-05
申请号:CN202410226307.7
申请日:2024-02-29
Applicant: 北京交通大学
IPC: H04N19/51 , H04N19/86 , H04N19/172
Abstract: 本发明提供了一种双向帧间预测引导的视频编码方法。该方法包括:编码端基于参考帧采用双向预测方法对待编码的中间帧进行初步预测,生成预测帧;通过残差引导的编码器组件编码所述中间帧和所述预测帧之间的差异,生成潜在特征;解码端基于参考帧通过双向预测网络得到预测帧,将所述潜在特征补偿到所述预测帧上,生成重建的中间帧。本发明方法使用伪影去除编码器来识别伪影的出现区域,利用预测帧与目标帧之间的残差作为关键区域的引导,使得编码的码率能够有针对性地聚焦在伪影区域上。在解码端时空先验解码器运用已经编码帧间的关联性来恢复当前帧,有效地减少了对重复信息的编码。
-
公开(公告)号:CN111583173B
公开(公告)日:2023-12-01
申请号:CN202010199264.X
申请日:2020-03-20
Applicant: 北京交通大学
Abstract: 本发明涉及一种RGB‑D图像显著性目标检测方法,包括如下步骤:1、从VGG主干网络中提取自顶向下的RGB‑D特征,然后将RGB‑D特征送入跟每个层级相对应的跨模态调制与选择单元;2、通过跨模态特征调制模块对多级RGB‑D特征进行调制;3、通过自适应特征选择模块得到与显著性相关的特征;通过显著显著性边缘预测部分生成显著性边缘图;4、求得修正特征;5、利用修正特征通过显著性图预测部分进行显著性图预测,并以第1层级输出的显著性图作为网络的最终输出显著性结果。本发明能够充分挖掘跨模态数据之间的互补信息,获得更具判别力的特征表达,生成更加完整、准确、边缘清晰的显著性图,且具有较强的背景抑制能力。
-
-
-
-
-
-
-
-
-