-
公开(公告)号:CN110599428B
公开(公告)日:2023-06-20
申请号:CN201910904000.7
申请日:2019-09-24
申请人: 北京航空航天大学青岛研究院 , 北京航空航天大学 , 歌尔股份有限公司 , 上海歌尔泰克机器人有限公司
IPC分类号: G06T5/00 , G06T9/00 , G06T7/246 , G06N3/0464 , G06N3/0455
摘要: 本发明所述光流估计异构混合网络及其嵌入方法,基于深度学习的光流估计算法,将coarse‑to‑fine网络和编解码网络结合到混合光流网络,以实现两个异构网络的相互增强,既通过coarse‑to‑fine网络保持较小的规模、同时借助编解码网络克服coarse‑to‑fine网络存在的难捕获快速移动小目标和易导致“鬼影现象”的问题。混合网络,是将编解码网络嵌入到coarse‑to‑fine网络中而形成的;所述的编解码网络,其特征匹配部分进行通道压缩而与coarse‑to‑fine网络的特征匹配部分输出的匹配特征进行拼接;coarse‑to‑fine网络的光流估计部分的输出反馈给编解码网络。
-
公开(公告)号:CN115457269A
公开(公告)日:2022-12-09
申请号:CN202211069116.1
申请日:2022-09-02
申请人: 北京航空航天大学 , 北京航空航天大学江西研究院
IPC分类号: G06V10/26 , G06V10/82 , G06V10/778 , G06N3/04 , G06N3/08
摘要: 本发明提出一种基于改进DenseNAS的语义分割方法,包括:(1)使用DenseNAS搜索合适的深度神经网络模型;(2)基于子网络深度的结构选择算法获得最优子网络候选,并从该候选中选择最短网络和最优网络;(3)最优网络作为骨干网络得到教师模型FCN‑long,最短网络作为骨干网络得到学生模型FCN‑short,通过知识蒸馏训练得到的FCN‑short对图像提取特征并得到其语义分割图像。本发明提出了基于子网络深度的结构选择方法,提高了选择网络在数据集上的精度,发挥了密集连接搜索空间的优势,获得了一个兼顾效率与精度的语义分割算法。
-
公开(公告)号:CN107862735B
公开(公告)日:2021-03-05
申请号:CN201710865372.4
申请日:2017-09-22
申请人: 北京航空航天大学青岛研究院 , 北京航空航天大学
摘要: 本发明属于三维图像处理技术领域,具体涉及一种基于结构信息的RGBD三维场景重建方法,包括S1.检测第i帧中的场景信息,并将场景信息在第i帧所对应的模型数据中标记;S2.估计第i+1帧所对应的相机姿态,计算时加入第i帧所对应的模型数据中标记的场景信息;S3.根据第i+1帧所对应的相机姿态,将第i+1帧融入到第i帧所对应的模型数据中,得到第i+1帧所对应的模型数据;S4.检测第i+1帧所对应的模型数据的投影图中的场景信息,并将场景信息反投影到第i+1帧所对应的模型数据中;S5.对于i的每一个取值,i=1,2,3···,N‑1,其中N为总的帧数,重复步骤S1‑S4,完成三维重建工作。该方法能够实时的检测出场景中所存在的几何结构信息,在相机姿态估计过程中,能够最小化配准误差的相机姿态估计,进而更好的完成实时的三维重建技术。
-
公开(公告)号:CN110827295A
公开(公告)日:2020-02-21
申请号:CN201911051686.6
申请日:2019-10-31
申请人: 北京航空航天大学青岛研究院 , 北京航空航天大学
摘要: 本发明所述基于体素模型与颜色信息耦合的三维语义分割方法,由三维CNN网络提取三维TSDF体素信息并结合三维重建过程中采集到的RGB图像,通过通道信息融合策略而直接实现端到端的三维语义分割,从而实现为三维重建技术之后的相关AR应用提供有力支持。三维语义分割方法包括有以下实施阶段:1)、二维RGB图像处理阶段;2)、三维TSDF体素模型处理阶段;3)、双通道信息融合及三维信息处理阶段。对于二维及三维信息进行融合;利用三维卷积神经网络进行最终的特征提取,从而得到最终的体素级别语义分割结果。
-
公开(公告)号:CN110599428A
公开(公告)日:2019-12-20
申请号:CN201910904000.7
申请日:2019-09-24
申请人: 北京航空航天大学青岛研究院 , 北京航空航天大学 , 歌尔股份有限公司 , 上海歌尔泰克机器人有限公司
摘要: 本发明所述光流估计异构混合网络及其嵌入方法,基于深度学习的光流估计算法,将coarse-to-fine网络和编解码网络结合到混合光流网络,以实现两个异构网络的相互增强,既通过coarse-to-fine网络保持较小的规模、同时借助编解码网络克服coarse-to-fine网络存在的难捕获快速移动小目标和易导致“鬼影现象”的问题。混合网络,是将编解码网络嵌入到coarse-to-fine网络中而形成的;所述的编解码网络,其特征匹配部分进行通道压缩而与coarse-to-fine网络的特征匹配部分输出的匹配特征进行拼接;coarse-to-fine网络的光流估计部分的输出反馈给编解码网络。
-
公开(公告)号:CN107862735A
公开(公告)日:2018-03-30
申请号:CN201710865372.4
申请日:2017-09-22
申请人: 北京航空航天大学青岛研究院 , 北京航空航天大学
摘要: 本发明属于三维图像处理技术领域,具体涉及一种基于结构信息的RGBD三维场景重建方法,包括S1.检测第i帧中的场景信息,并将场景信息在第i帧所对应的模型数据中标记;S2.估计第i+1帧所对应的相机姿态,计算时加入第i帧所对应的模型数据中标记的场景信息;S3.根据第i+1帧所对应的相机姿态,将第i+1帧融入到第i帧所对应的模型数据中,得到第i+1帧所对应的模型数据;S4.检测第i+1帧所对应的模型数据的投影图中的场景信息,并将场景信息反投影到第i+1帧所对应的模型数据中;S5.对于i的每一个取值,i=1,2,3…,N-1,其中N为总的帧数,重复步骤S1-S4,完成三维重建工作。该方法能够实时的检测出场景中所存在的几何结构信息,在相机姿态估计过程中,能够最小化配准误差的相机姿态估计,进而更好的完成实时的三维重建技术。
-
公开(公告)号:CN116109947A
公开(公告)日:2023-05-12
申请号:CN202211074728.X
申请日:2022-09-02
申请人: 北京航空航天大学 , 北京航空航天大学江西研究院
IPC分类号: G06V20/17 , G06V10/764 , G06V10/82 , G06V10/766
摘要: 本发明提出一种基于大核等效卷积注意力机制的无人机图像目标检测方法。包括:(1)首先对训练数据做预处理;(2)构建整个目标检测网络;(3)网络构建完成后,使用已经处理好的数据对网络进行训练,得到训练收敛的网络权重文件;(4)利用训练好的检测器,对给定图像进行推理,得到检测结果,输出检测出的物体类别、物体位置与置信度。相比较于传统的目标检测算法,本发明通过应用注意力机制提高了无人机图像的目标检测精度,并且能够检出更多的目标。
-
公开(公告)号:CN114818876A
公开(公告)日:2022-07-29
申请号:CN202210348787.5
申请日:2022-04-01
申请人: 北京航空航天大学 , 北京航空航天大学江西研究院
摘要: 本发明公开一种基于表征一致性提高双目立体匹配网络泛化的方法,通过对中间特征施加立体选择性白化损失函数,以提高不同域之间的特征的双目一致性;对最终双目特征施加立体对比特征损失函数,以保持立体视图之间的特征一致性。利用预测视差与真实视差的差异损失、立体选择性白化损失以及立体对比特征损失的加权总和作为训练损失函数,作用于双目立体匹配网络训练期间。本发明可以无缝集成到现有的端到端立体匹配网络中,解决立体匹配网络的跨域泛化问题。
-
公开(公告)号:CN107833253B
公开(公告)日:2020-08-04
申请号:CN201710865785.2
申请日:2017-09-22
申请人: 北京航空航天大学青岛研究院 , 北京航空航天大学
摘要: 本发明属于计算机视觉与计算机图形图像处理技术领域,具体涉及一种面向RGBD三维重建纹理生成的相机姿态优化方法,S1.得到深度图像融合的关键帧;S2.计算三维网格模型点云深度投影图;S3.去除点云深度投影图中的背景数据;S4.深度数据匹配和相机姿态的优化。该方法由已知三维网格模型、关键帧,结合纹理生成过程中的需求,利用网格模型的几何特征以及关键帧中的深度数据,研究一种在RGBD三维重建纹理生成过程中,对关键帧视点下相机位姿的优化方法,为高质量的纹理图像生成提供保障。
-
公开(公告)号:CN107833253A
公开(公告)日:2018-03-23
申请号:CN201710865785.2
申请日:2017-09-22
申请人: 北京航空航天大学青岛研究院 , 北京航空航天大学
摘要: 本发明属于计算机视觉与计算机图形图像处理技术领域,具体涉及一种面向RGBD三维重建纹理生成的相机姿态优化方法,S1.得到深度图像融合的关键帧;S2.计算三维网格模型点云深度投影图;S3.去除点云深度投影图中的背景数据;S4.深度数据匹配和相机姿态的优化。该方法由已知三维网格模型、关键帧,结合纹理生成过程中的需求,利用网格模型的几何特征以及关键帧中的深度数据,研究一种在RGBD三维重建纹理生成过程中,对关键帧视点下相机位姿的优化方法,为高质量的纹理图像生成提供保障。
-
-
-
-
-
-
-
-
-