基于循环卷积和多聚类空间的红外图像增强方法

    公开(公告)号:CN113989153A

    公开(公告)日:2022-01-28

    申请号:CN202111271072.6

    申请日:2021-10-29

    Abstract: 本发明属于图像增强技术,具体涉及一种基于循环卷积和多聚类空间的红外图像增强方法,包括如下步骤:S1,建立多尺度循环卷积模块,以若干半径不同的高斯卷积核建立多尺度卷积模块,并采用密集连接的方式将多层多尺度卷积模块连接起来处理图像细节;S2,采用K‑means算法对图像灰度值进行聚类分析图像聚类分析,采用最大贡献率法选取初始聚类中心;S3,采用二维高斯函数和旋转矩阵构建第i个角度的核函数作为模板核函数提取图像不同角度的轮廓信息。本实施例方法相对于现有的图像增强方法,输出的图像轮廓更清晰、细节信息更丰富,较原图像质量无论是细节、亮度等有了显著的提高。

    一种基于局部到全局多模态融合的3D目标检测方法

    公开(公告)号:CN119478355A

    公开(公告)日:2025-02-18

    申请号:CN202411522575.X

    申请日:2024-10-28

    Abstract: 本发明公开了一种基于局部到全局多模态融合的3D目标检测方法,方法包括:首先获取点云及其关联的六视图图像,采用极坐标采样技术对点云进行密集化处理,并通过3D主干网络生成不同下采样率的体素特征,利用区域建议网络生成初始3D建议框;同时,使用2D主干网络从六视图图像中提取密集的语义图像特征。在多模态融合阶段,局部融合模块和全局融合模块协同工作,将多层次体素特征、语义图像特征、初始3D建议框以及原始点云的位置信息自适应地整合在一起,并通过动态聚合模块实现局部与全局融合特征间的信息交互。本发明利用局部到全局的跨模态融合,整合细粒度和整体特征,显著提升了3D目标检测性能。

    一种基于无人机与边缘计算的三维重建方法

    公开(公告)号:CN119478213A

    公开(公告)日:2025-02-18

    申请号:CN202411505637.6

    申请日:2024-10-28

    Abstract: 本发明公开了一种基于无人机与边缘计算的三维重建方法,涉及无人机技术、边缘计算和三维场景重建领域。该方法包括:无人机携带单目相机对目标场景采集标清视频流;边缘计算设备实时接收和处理标清视频流,生成初步的低精度三维重建;边缘计算设备通过分析低精度重建结果识别出缺陷区域,对无人机的飞行路径进行优化;无人机根据优化的路径,对目标场景采集高清视频流;边缘计算设备对该高清视频流进行离线高精度三维重建,以提高重建场景的准确性和细节表达能力。本发明通过无人机、边缘计算端的协同工作,实现了采集过程中实时数据处理、反馈和决策,以及离线阶段高精度三维重建结果存储,有效提升了三维重建的实时性和准确性。

    一种双线性金字塔网络花卉图像分类方法

    公开(公告)号:CN113191414A

    公开(公告)日:2021-07-30

    申请号:CN202110450853.5

    申请日:2021-04-26

    Abstract: 本发明公开了一种双线性金字塔网络花卉图像分类方法,该方法通过将需要分类的花卉原始图像的大小调整至224*224,并随机裁剪为192*192;然后将调整后的图像通过双线性金字塔网络对花卉图像进行特征提取;最后将提取得到的特征输入分类器中进行分类后输出,得到花卉的分类结果;该方法采用花分类双线性金字塔网络,卷积层的特征与卷积层的特征融合,而不是直接通过网络输入最终的分类器。这些从特征金字塔中编码的特征自动携带多层次语义线索,对姿态和尺度的变化具有额外的鲁棒性,在分类识别方面优于单层特征。在基准数据集上进行了广泛的验证,以显示提出的方法的有效性。

    一种基于Transformer的3D多目标检测与跟踪方法

    公开(公告)号:CN119380300A

    公开(公告)日:2025-01-28

    申请号:CN202411318112.1

    申请日:2024-09-20

    Abstract: 本发明提供了一种基于Transformer的3D多目标检测与跟踪方法,涉及自动驾驶和三维目标检测与跟踪技术领域。该方法包括:从六个摄像头获取连续帧的RGB图像数据流;对图像数据中的物体进行检测与跟踪;设计特征提取网络,将RGB数据流映射到鸟瞰图BEV上,以便更好地感知车辆周围环境;设计4D Tubelet Query以动态表示数据流中所有的tubelets;设计时序自注意力机制,融合长短时序上BEV特征信息,以捕捉目标的时序动态性;设计交叉注意力机制,融合4D Tubelet Query和BEV视频流,以动态学习多物体的外貌特征、角度信息以及轨迹信息等进行相应的学习;设计任务头,将Transformer获取的Query特征通过FFN生成最终的物体检测框和轨迹信息。本发明采用上述的一种基于Transformer的3D多目标检测与跟踪方法,解决了现有方法在三维多目标检测与跟踪上TBD的不足,巧妙地将检测与跟踪耦合,实现高精度的目标检测与跟踪。

    一种基于三维点云的果实自动计数方法

    公开(公告)号:CN119904860A

    公开(公告)日:2025-04-29

    申请号:CN202510040317.6

    申请日:2025-01-10

    Abstract: 本发明公开了一种基于三维点云的果实自动计数方法,涉及水果果实估产技术领域。该方法首先利用LIDAR相机捕获果园场景的点云序列数据及其对应的相机运动轨迹信息,并对三维场景进行俯瞰得到水果占用地图FOM;然后构建基于点云序列数据的高效物体检测模块,使用时空注意力引导的快速目标建议与状态初估计网络,基于早期集成阶段的FOM引导RPN以及中间集成阶段Fusion R‑CNN融合框架进行果实检测;最后基于AB3DMOT算法,构建基于点云序列数据的果实跟踪模块,进行时空记忆导向的运动预测和水果占用地图更新。本发明通过将物体状态随时间变化的累积记忆信息回灌至检测模块,显著提升了目标检测器检测3D目标时的精度和跟踪效率,实现了三维空间中物体持续定位、跟踪和识别。

    一种基于多级3D高斯的密集RGB-D SLAM方法

    公开(公告)号:CN118781189A

    公开(公告)日:2024-10-15

    申请号:CN202410903520.7

    申请日:2024-07-08

    Abstract: 本发明公开了一种基于多级3D高斯的密集RGB‑D SLAM方法,涉及三维场景重建和机器人自主导航领域。该方法包括:从RGB‑D相机获取连续的RGB图像和深度图数据流;对RGB‑D数据中的关键帧进行跟踪;设计多级高斯表示技术,将场景的几何和纹理细节分别用不同级别的高斯分布进行描述,并通过映射构建场景的三维地图;设计高斯渲染器对这些高斯分布进行渲染,生成RGB图像、深度图和可见性轮廓图;RGB‑D数据流与渲染结果作为输入反馈给系统的损失优化器,迭代优化多级高斯表示,最终重构出三维场景。本发明采用上述的一种基于多级3D高斯的密集RGB‑D SLAM方法,解决了现有方法在深度误差和渲染质量方面的不足,实现高精度的场景重建和导航。

Patent Agency Ranking