一种结合语义信息的矿井图像超分辨率重建方法

    公开(公告)号:CN115239564A

    公开(公告)日:2022-10-25

    申请号:CN202210992327.6

    申请日:2022-08-18

    IPC分类号: G06T3/40 G06N3/04 G06N3/08

    摘要: 本发明提供一种结合语义信息的矿井图像超分辨率重建方法,其主要目的是通过语义分割网络所产生的概率图对超分辨率网络的深层特征提取前的输入进行调整,以此达到提高图像重建质量的结果。该方法主要包括这几部分:1.构建一个较深的超分辨率网络,其结构主要包括:浅层特征提取模块、深层特征提取模块、上采样模块;2.构建一个语义分割网络,用于产生作为深层特征提取模块的部分输入;3.确定损失函数、学习率调整策略。

    一种移动巡检机器人双目图像拼接的特征匹配方法

    公开(公告)号:CN110246168A

    公开(公告)日:2019-09-17

    申请号:CN201910534549.1

    申请日:2019-06-19

    IPC分类号: G06T7/33 G06K9/62 G06K9/46

    摘要: 本发明提供一种移动巡检机器人双目图像拼接的特征匹配方法,在特征点检测阶段,构建尺度金字塔并使用速度极快的FAST算法提取特征点,加强尺度不变的鲁棒性;随后使用改进的CS-LBP描述方法描述特征点,加强旋转不变的鲁棒性,同时降低特征向量维度提高了匹配效率;最后使用DDRN算法来度量特征向量的相似度完成匹配,并通过改进的RANSAC算法剔除误匹配。相较于传统算法,本算法在大幅提高实时性的同时准确的实现了对图像的特征提取与匹配,并且改进的描述方法对旋转图像的抗干扰性强,在仿射、缩放、光照等复杂变换场景依然有着较高的适应性。

    一种非结构化环境的特种车辆自动驾驶路径规划方法

    公开(公告)号:CN117346805B

    公开(公告)日:2024-09-20

    申请号:CN202311150868.5

    申请日:2023-09-07

    摘要: 一种非结构化环境的特种车辆自动驾驶路径规划方法,通过SLAM地面分割算法,将三维高度信息存储于相应栅格,获得非结构环境占用栅格图,再将所述栅格图地形数据划分为训练集和测试集;结合感知模块输入信息及特种车辆动力学建模,从栅格图地形数据中提取可通行区域,实现风险图构建;根据风险图构造自适应性的奖励函数,搭建强化学习模型以及Agent的神经网络;基于构建非结构化环境测试机进行训练,在每个训练周期初始化阶段构建随机函数,随机化起点和终点位置,使系统具泛化性;通过强化学习训练获得策略网络,在测试集中执行路径规划,实现非结构化环境下高效的处理环境信息,提高特种车辆面对不同地形的适应性及有效的自动驾驶。

    一种基于整体注意力的矿井图像超分辨率重建系统及方法

    公开(公告)号:CN117173024A

    公开(公告)日:2023-12-05

    申请号:CN202311213700.4

    申请日:2023-09-20

    摘要: 本发明属于图像超分辨率重建技术领域,涉及一种基于整体注意力的矿井图像超分辨率重建系统及方法;浅层特征输入到深层特征提取模块,深层特征提取模块由N个信息蒸馏块堆叠组成;层间融合注意力机制模块由M个层间金字塔注意力以金字塔结构组成,并通过1×1卷积层来降低维度以减少计算量和参数量,然后输入到3×3卷积层,并引入长跳跃连接,输出融合结果作为上采样及重建模块的输入;得到高分辨率图像;以信息蒸馏网络为框架,引入增强型自校准卷积可以有效地平衡好计算效率和网络性能,更满足现实应用的需求;层间融合注意力机制对多个信息蒸馏块的输出特征图自适应地分配权重,在融合处理后输入重建模块以实现不同深度特征图地充分利用。

    一种用于可穿戴头盔的单目图像深度估计方法

    公开(公告)号:CN115423857A

    公开(公告)日:2022-12-02

    申请号:CN202211242648.0

    申请日:2022-10-11

    摘要: 本发明公开了一种用于可穿戴头盔的单目图像深度估计方法,涉及图像处理技术领域,包括如下步骤:以矿井图像序列作为训练数据,建立进行单目深度估计的深度卷积神经网络模型的训练模型,并从卷积神经网络的平面系数解码器中计算出能预测井下图像深度图的平面系数;基于所述平面系数预测出初始井下图像深度图,根据曼哈顿结构法向检测得到预测法向量,从而与对齐法线相似性约束;通过共平面法向深度约束估计,提取初始预测深度和平面差异求得的深度图,利用两者风格矩阵进行余弦相似度约束。本发明基于能预测井下图像深度图的平面系数间接再预测出深度图,打破了传统的生成初始深度图的方法,且使训练约束的起点高,有效提升了后期深度估计效果。

    一种面向三维场景重建的高精度单目深度估计系统及方法

    公开(公告)号:CN115272438A

    公开(公告)日:2022-11-01

    申请号:CN202210999767.4

    申请日:2022-08-19

    摘要: 本发明公开一种面向三维场景重建的高精度单目深度估计系统及方法,属于图像处理技术领域,在编码器处通过引入Vision Transformers主干网络,ViT主干网络代替卷积网络作为密集预测的主干架构,以恒定的和相对较高的分辨率处理表示,并在每个阶段都有一个全局的接受域,以减少卷积网络中下采样过程中的信息丢失,从而获取图像更多的细节特征和感受野。在解码器处通过利用小波变换来捕获深度图中深度不同的平坦区域之间的深度“跳跃”,这些“跳跃”可以很好地在高频分量中捕获,从而达到强化深度信息图边缘的效果。通过对ViT和小波变换的引入,能够在不使得网络计算更复杂的前提下,又兼顾单目深度估计网络模型对全局特征和局部边缘特征的提取,提高单目深度估计的精度。