基于自适应图像去雾的无人机智能巡航检测方法

    公开(公告)号:CN116883868A

    公开(公告)日:2023-10-13

    申请号:CN202310472873.1

    申请日:2023-04-27

    Abstract: 本发明提出了基于自适应图像去雾的无人机智能巡航检测方法,包括:采集航拍交通目标图片,构建航拍交通目标数据集,根据数据集进行改进的YOLOv5网络模型训练,得到训练好的识别模型;对当前输入图片进行含雾量判断;对含雾图像进行自适应去雾和三色通道修正;将去雾后的图片输入到训练好的模型中获得最终的交通目标识别。在智慧交通场景中,利用本发明的方法,可以很好的解决由于雨雾天气下航拍图像整体较为模糊,拍摄目标细节丢失严重,造成的交通目标漏检和误检问题,实现快速准确进行的交通堵塞区域、车祸发生现场情况定位,为后续道路规划和紧急救援提供准确的先验信息。

    一种车联网环境下异构节点协作边缘缓存方法

    公开(公告)号:CN113543071B

    公开(公告)日:2023-10-03

    申请号:CN202110742975.1

    申请日:2021-06-30

    Abstract: 本发明公开了一种车联网环境下异构节点协作边缘缓存方法,方法包括:构建核心服务器、宏基站、路边单元以及各车辆之间的网络边缘缓存模型;将一组流行文件集通过拉链分布建模,按人气下降的顺序排序;利用喷泉码,将所有流行文件进行分块处理,每个流行文件被编码成若干个数据包;以最小化车辆获取总内容所需延迟和成本为优化目标,优化网络边缘缓存模型,对车辆传输内容进行放置,分别在宏基站和路边单元上缓存部分数据包;其中,将流行文件集中的流行文件按照人气由高到低的顺序依次进行缓存。本发明旨在最小化车辆获取总内容所需延迟、成本以及高命中率的情况下,对内容进行协作放置。

    面向多无人载荷巡检场景的多源数据时空同步融合方法

    公开(公告)号:CN116702088A

    公开(公告)日:2023-09-05

    申请号:CN202310700271.7

    申请日:2023-06-13

    Inventor: 张晖 陈坤

    Abstract: 本发明提出一种面向多无人载荷巡检场景的多源数据时空同步融合方法。在多无人载荷协同巡检过程中先通过yolov5进行目标检测,再采用卷积神经网络进行特征提取。首先在某一时间点切面根据多无人载荷各自获得的运动信息以及视觉信息判断在不同位置以及不同视角下巡检到的是否属于同一目标,如果是同一目标则对获取的数据进行单点融合。然后在连续时间内的任意前后时刻对数据关联匹配,判断多无人载荷在不同时空状态下巡检到的是否还是同一目标,如果仍然是同一目标则获取的数据进行多点融合。最后引入反馈校正机制,对融合效果不好的数据进行反馈矫正。

    基于自适应边缘特征语义分割的无人机巡航检测方法

    公开(公告)号:CN116503760A

    公开(公告)日:2023-07-28

    申请号:CN202310471491.7

    申请日:2023-04-27

    Abstract: 本发明公开了一种基于自适应边缘特征语义分割的无人机巡航检测方法,基于预定义多尺度多形状边缘检测算子组,利用基于边缘概率的多形状边缘特征融合方法,得到多形状边缘特征图;利用基于目标匹配度的多尺度边缘特征加权方法,得到多尺度多形状边缘特征图;搭建改进DeepLabV3+语义分割网络,在编码器中使用感受野融合空洞空间金字塔池化模块,将多尺度多形状边缘特征图组补充进网络解码器部分,并对改进网络进行训练;最后,利用训练好网络对无人机巡检所获得的遥感图像中的目标进行分割检测。本发明通过在无人机巡检数据集上进行训练提取泛化的巡检目标所具有的特征表示,突出不同目标特征之间的可区分度,提高检测准确度,减少了人工巡检的工作。

    雷视传感融合的天时场景自适应三维目标检测方法

    公开(公告)号:CN116469095A

    公开(公告)日:2023-07-21

    申请号:CN202310437055.8

    申请日:2023-04-21

    Abstract: 本发明提出了雷视传感融合的场景自适应三维目标检测方法,首先对输入的点云数据与图像数据分别提取原始点云特征与图像特征;然后将原始点云经过矩阵变换投影到图像特征图上,对点云投影点进行逐点特征融合,得到点云的逐点融合特征;再构建场景驱动的三维目标检测网络,根据当前场景中的天气时间状况与目标尺度大小提出天时感应因子与场景尺度因子,并根据天时场感应因子与场景尺度因子自适应的实现逐点融合特征与原始点云特征的全局特征融合,并将全局融合特征输入三维区域生成网络生成感兴趣区域,提取出区域特征候送入三维目标检测网络完成三维目标检测;最后利用训练好的三维目标检测网络对目标进行实时检测。

    雷视融合配准的道路场景自适应三维目标检测方法

    公开(公告)号:CN116402677A

    公开(公告)日:2023-07-07

    申请号:CN202310429801.9

    申请日:2023-04-20

    Abstract: 本发明公开了一种雷视融合配准的道路场景自适应三维目标检测方法;首先对输入的点云数据与图像数据分别提取点云局部区域特征与图像区域特征;然后将同深度下的点云局部区域特征组合后生成点云区域特征,然后将不同深度下的点云区域特征图送入全局区域深度特征融合网络,融合得到点云区域特征后与图像区域特征融合,得到包含点云深度信息与图像语义信息的区域融合特征;再构建道路场景驱动的三维目标检测网络,根据基于道路场景先验信息的道路类别系数与拥挤类别系数自适应的实现不同区域融合特征的多深度分辨率特征融合,并将得到的多深度分辨率融合特征输入卷积注意力模块,最终将特征送入SSD网络完成三维目标检测。

    成像原理赋能的无人机巡检目标语义分割检测方法

    公开(公告)号:CN116363370A

    公开(公告)日:2023-06-30

    申请号:CN202310456470.8

    申请日:2023-04-25

    Abstract: 本发明公开了一种成像原理赋能的无人机巡检目标语义分割检测方法:首先,使用枯草目标区域高斯滤波方法,获得待定枯草目标区域反射图像;其次,对待定枯草目标区域反射图像进行色彩增强,得到枯草色彩校正图像;然后,搭建改进UNet语义分割网络,采用ResNet50网络作为特征提取网络,使用基于通道注意力的上下文信息融合模块代替原UNet网络跳跃连接中的直接拼接操作,并对改进后的网络模型进行训练;最后,利用训练好的改进UNet语义分割网络模型对无人机巡检所获得的遥感图像中的枯草进行检测。本发明通过在枯草数据集上进行训练提取泛化的枯草目标所具有的特征表示,突出特征之间的可区分度,提高枯草目标检测的准确度,减少了人工巡检的工作。

Patent Agency Ranking