-
公开(公告)号:CN113822147B
公开(公告)日:2023-12-15
申请号:CN202110890068.1
申请日:2021-08-04
Applicant: 北京交通大学
IPC: G06V20/40 , G06V10/26 , G06V10/82 , G06V10/44 , G06V10/52 , G06N3/0455 , G06T9/00 , H04N19/17 , H04N19/85
Abstract: 本发明属于信息压缩处理技术领域,涉及一种协同机器语义任务的深度压缩方法,包括:将图像x输入基网络,输出压缩特征fxn;多尺度融合模块输出多尺度语义特征fsn;将fxn和fsn通过通道级联,获得组合特征z;z依次经量化、算术编码和算术解码,获得隐特征 传送到解码器,被分成压缩特征 和语义特征 再分别进行解码,分别得到解压缩图像 和语义分割图像s;输入后处理增强模块,得到解压缩图像 本发明提出一种端到端的相互增强网络,将图像压缩和语义分割集成到统一的框架。框架基于编解码器结构,在编码器中设计融合模块,提高语义分割的准确性,设计增强模块,增强压缩任务的重建图片。本发明在图像压缩和语义分割上实现相互增强。
-
公开(公告)号:CN113808032B
公开(公告)日:2023-12-15
申请号:CN202110892066.6
申请日:2021-08-04
Applicant: 北京交通大学
IPC: G06V10/30 , G06V10/52 , G06V10/80 , G06V10/82 , G06N3/0455 , G06N3/0464 , G06N3/048
Abstract: 本发明为一种多阶段渐进式的图像去噪算法,构建多阶段渐进式的去噪网络;每个阶段开始前使用卷积层和CAB模块提取含噪图像的浅层特征;第一阶段的浅层特征经过级联的CAB处理得到局部空间特征,经过U‑Net网络处理得到上下文语义信息;采用特征融合模块对局部空间特征和语义信息进行融合,得到第一阶段融合后的特征;第一阶段融合后的特征与第二阶段的浅层特征进行相加,相加后的特征经过级联的CAB处理得到局部空间特征,经过U‑Net网络处理得到语义信息;采用特征融合模块对局部空间特征和上下文语义信息进行融合,得到第二阶段融合后的特征;重复上述操作,得到第n阶段融合后的特征,然后经过卷积层处理后得到清晰图像。
-
公开(公告)号:CN113709455A
公开(公告)日:2021-11-26
申请号:CN202111138182.5
申请日:2021-09-27
Applicant: 北京交通大学
IPC: H04N19/103 , H04N19/20 , H04N19/30 , H04N19/42
Abstract: 本发明公开一种使用Transformer的多层次图像压缩方法,以Transformer模块为主,辅之以卷积层神经网络的多层次的图像压缩框架,Transformer模块包括多层编码器组件组件、解码器组件,编码端采用编码器组件,解码端采用解码器组件;解码器拥有交叉注意力机制,该交叉注意力机制将解码器的输入的自注意力特征与编码器的自注意力特征进行联合计算,对压缩压缩框架编码器的编码端学习到的特征充分利用。本发明保留了Transformer中的解码器组件及其交叉注意力机制,应用在解码端以实现对编码端学习到的特征的充分利用,达到更好的效果。且本发明框架对硬件的需求更小。
-
公开(公告)号:CN110009683A
公开(公告)日:2019-07-12
申请号:CN201910250262.6
申请日:2019-03-29
Applicant: 北京交通大学
Abstract: 本发明实施例提供了一种基于MaskRCNN的实时平面上物体检测方法,其特征在于,包括:步骤1获取视频流中的每帧图像,基于ORBSLAM2计算该帧的位姿,保存该帧的位姿及对应的图像到全局数组中;步骤2基于ORBSLAM2增加深度学习检测线程,所述深度学习线程从全局数组中抽取数据,提取数组中相邻两帧图像,并通过位姿分别计算相邻两帧的投影图,通过MaskRCNN检测第二帧投影图上物体所包含的像素点,根据相邻两帧投影图特征匹配能够得到特征点的平移关系从而求出第一帧投影图上物体的像素点,并将所述两帧图像的像素点根据位姿进行逆变换,将逆变换后的匹配点通过三角化计算出物体的世界坐标;步骤3根据当前帧的位姿和所述物体的世界坐标计算物体当前帧的像素坐标,相机位姿若满足平面,则对于检测的所述物体不渲染,仅渲染非检测物体,并在检测的所述物体上插入AR物体。
-
公开(公告)号:CN114596657B
公开(公告)日:2023-07-25
申请号:CN202210125630.6
申请日:2022-02-10
Applicant: 北京交通大学
IPC: G07C9/37 , G06V40/10 , G06V40/16 , G06V10/82 , G06N3/02 , G06T7/00 , G06T7/62 , G01D21/02 , A61B5/107
Abstract: 本发明公开了一种基于深度数据的闸机通行系统,包括:数据采集模块、数据对齐模块、行人定位模块、身高检测模块、距离检测模块、数据储存模块;其中,数据采集模块用于数据深度采集,数据对齐模块是将RGB颜色图和深度数据的对齐,行人定位模块将深度相机采集到的彩色照片通过YOLOv3目标检测算法进行识别,框出行人并保存框的位置信息;身高检测模块用于采集行人的身高数据;距离检测模块用于计算行人间的距离;数据储存模块将所有采集和检测数据直接存储到数据库系统中,进行留存和后期取证使用。利用本系统可以计算身高以区分成人与儿童,同时测量前后行人间距,识别连续通行者,实现更为智能化的闸机通行检测。
-
公开(公告)号:CN111612728A
公开(公告)日:2020-09-01
申请号:CN202010449147.4
申请日:2020-05-25
Applicant: 北京交通大学
Abstract: 本发明实施例提供了一种基于双目RGB图像的3D点云稠密化方法和装置。所述方法包括:步骤1,由双目RGB图像生成深度图像;根据所述深度图像的深度信息,估计所述深度图像的每个像素点在LiDAR坐标系下的大致三维坐标点;步骤2,使用循环RANSAC算法进行点云的地面分割,并提取非地面点云;步骤3,将提取的所述非地面点云插入KDTree,根据所述每个像素点在LiDAR坐标系下的大致三维坐标点,在KDTree中搜索预定数量的近邻点,利用所述近邻点进行曲面重建;步骤4,根据曲面重建结果和LiDAR与相机的标定参数,由计算几何方法导出所述大致三维坐标点的精确坐标点,并将所述精确坐标点与原始LiDAR点云进行融合,得到稠密化点云。
-
公开(公告)号:CN106846410B
公开(公告)日:2020-06-19
申请号:CN201611186659.6
申请日:2016-12-20
Applicant: 北京鑫洋泉电子科技有限公司 , 北京交通大学
Abstract: 本公开涉及基于三维的行车环境成像方法及装置。该方法包括:检测鱼眼相机获取的畸变图中的特征点,并根据特征点对应的坐标对鱼眼相机进行标定,得到畸变图对应的校正图;根据鱼眼相机的相关参数确定第一矩阵;根据第一矩阵以及特征点在校正图中的坐标确定第二矩阵;根据第二矩阵对校正图进行透视投影变换,得到校正图在虚拟成像面上对应的虚拟成像图,并确定特征点在虚拟成像面上的坐标;建立三维行车环境模型;获取虚拟成像图的纹理;根据第一矩阵将虚拟成像图的纹理贴在三维行车环境模型上。本公开能够使车身周围立面场景显示真实,立体感强,且平面贴图与立面贴图过渡自然。
-
公开(公告)号:CN108416257A
公开(公告)日:2018-08-17
申请号:CN201810051704.X
申请日:2018-01-19
Applicant: 北京交通大学
Abstract: 本发明公开了一种融合视觉与激光雷达数据特征的地铁轨道障碍物检测方法,包括以下步骤:S1、为地铁装配激光雷达和摄像头;S2、利用装配有激光雷达和摄像头的地铁沿着行驶线路往返至少一次,采集沿途的摄像头图像数据和激光雷达点云数据;S3、利用激光雷达点云数据进行地图的构建;对于交叉轨道处和弯道位置,利用摄像头图像数据进行逐一标定;S4、对于摄像头图像数据和激光雷达点云数据都无法确定的路况,利用人工进行手动标注;形成S2中的行驶线路的地铁地图数据。本发明融合视觉与激光雷达数据特征实现地铁轨道的障碍物检测;以激光雷达数据为主,以视觉特征为辅,对两者数据特征进行挖掘,检测障碍物。
-
公开(公告)号:CN103581687B
公开(公告)日:2017-12-15
申请号:CN201310414049.7
申请日:2013-09-11
Applicant: 北京交通大学长三角研究院
IPC: H04N19/597 , H04N19/36
Abstract: 本发明提供了一种基于压缩感知的自适应深度图像编码方法,包括以下过程:首先对深度图像进行隔点采样,采用0.5的下采样率;然后用canny算子提取出下采样后深度图像的边缘,根据不同的边缘信息对图像块进行自适应选取采样率,最后根据采样值以高概率重构出深度图像,再通过上采样得到和原来分辨率相同的深度图像。
-
公开(公告)号:CN103544717B
公开(公告)日:2016-09-28
申请号:CN201310500171.6
申请日:2013-10-22
Applicant: 北京交通大学长三角研究院
IPC: G06T9/00
Abstract: 本发明提供了一种基于SIFT特征的二阶段三维图像压缩编码方法,包括阶段一和阶段二两个阶段,阶段一首先对视点C1和C2图像提取SIFT特征点并进行初步特征点匹配,然后用RANSAC算法对提取的特征点进行去误匹配并求出视点C1到C2的变换矩阵H1;由视点C1的图像和变换矩阵H1重构出参考图像C21;同理由视点C3和C2求出变换矩阵H2和参考图像C23;接下来分别将重构的参考图像C21、C23与C2作相关性决策,选出与视点C2最相关的重建图像C以及对应的变换矩阵H;对变换矩阵H做定长编码即形成了阶段一的码流;阶段二是在阶段一的基础上,用视点C2与阶段一中选出的重建图像C相减得一个残差,编码残差和变换矩阵H组成阶段二码流。
-
-
-
-
-
-
-
-
-