一种MobileNet的逐点卷积深度卷积硬件优化结构

    公开(公告)号:CN117973453A

    公开(公告)日:2024-05-03

    申请号:CN202410188886.0

    申请日:2024-02-20

    Abstract: 本发明公开了一种MobileNet的逐点卷积深度卷积硬件优化结构,包括:逐点卷积计算模块,用于负责逐点卷积深度卷积两层流水结构中逐点卷积层的计算,并将计算结果存入行缓冲模块中;行缓冲模块,用于负责缓存逐点卷积计算模块的计算结果,同时作为深度卷积计算模块的输入缓冲;深度卷积计算模块,用于从行缓冲模块中提取逐点卷积计算模块的计算结果,同时负责逐点卷积深度卷积两层流水结构中深度卷积计算模块的计算;本发明所提出的一种MobileNet的逐点卷积深度卷积硬件优化结构,利用逐点卷积和深度卷积两层流水,将逐点卷积的结果缓存到深度卷积的输入行缓冲中,使得仅需一个通道输入特征图的深度卷积能够立刻开始计算并得到结果,从而降低时延和功耗;同时,该结构采用与深度卷积逐点卷积流水结构相反的结构,利用行缓冲保存中间结果,同时作为深度卷积的输入,降低了资源开销。

    一种基于无监督学习的视觉惯性里程计方法

    公开(公告)号:CN116721165A

    公开(公告)日:2023-09-08

    申请号:CN202310676553.8

    申请日:2023-06-08

    Abstract: 本发明公开了一种基于无监督学习的视觉惯性里程计方法,其包括以下步骤:S1:采集输入数据,将图像数据和IMU数据进行预处理,使图像数据和IMU数据同步;S2:进行特征提取,得到图像数据的图像特征和IMU数据的惯导特征;S3:将图像特征和惯导特征输入位姿计算网络中,输出六自由度的位姿计算结果;S4:根据深度图和源图像之间的差异进行无监督训练,输出训练结果,得到训练好的深度网络;S5:采集新的图像数据输入训练好的深度网络,输出定位结果。本发明采用深度学习的方式,避免了传统方法中传感器的复杂标定和建模,同时采用无监督的训练方式解决了数据集的限制,整个方法能够充分利用图像与惯导的互补信息,实现高精度的定位。

Patent Agency Ranking