基于三维点云的实例分割方法

    公开(公告)号:CN118351320B

    公开(公告)日:2024-08-16

    申请号:CN202410780784.8

    申请日:2024-06-18

    Abstract: 本发明公开了一种基于三维点云的实例分割方法,属于图像处理和计算机视觉技术领域,步骤如下:获取并预处理点云数据,得到点云训练数据集;提取点云数据的特征,得到点云级别数据特征和各超点的综合特征;通过编码与二类聚值的方法进行分类和聚合,得到初始化位置编码、初始化位置查询向量和高密度点查询向量;基于交叉注意力机制进行向量融合,得到实例融合特征;对实例的中心位置和边界位置进行预测,并卷积生成分割掩码,且转化为预测掩码;根据二分匹配方法和图模型,对预测掩码和真实掩码进行匹配和匹配程度评估,并执行三维点云的实例分割。本发明解决了现有三维点云实例分割技术在处理紧密相邻对象和实时场景理解方面存在的局限性问题。

    基于对比性语言图像预训练技术的点云实例分割方法

    公开(公告)号:CN116152267A

    公开(公告)日:2023-05-23

    申请号:CN202310448684.0

    申请日:2023-04-24

    Abstract: 本发明涉及基于对比性语言图像预训练技术的点云实例分割方法,包括步骤:获取点云数据,进行预处理后,得到文本信息、点云训练数据集;构建跨模态预训练模型,跨模态预训练模型包括稀疏卷积神经网络、预训练编码网络、预测网络;将点云训练数据集输入稀疏卷积神经网络,得到体素级别的点云特征;将文本信息与体素级别的点云特征进行融合,得到融合点云特征;对融合点云特征进行线性投影得到实例掩码特征,对文本信息提取出文本特征,将融合点云特征、实例掩码特征、文本特征输入预训练编码网络,得到查询的向量值;将查询的向量值输入预测网络,得到分割的实例结果。本发明在将融合点云特征和文本特征整合在一起,能够更好地捕获这两类信息。

    基于深度感知技术的无人机驾驶员疲劳检测方法及系统

    公开(公告)号:CN114022871A

    公开(公告)日:2022-02-08

    申请号:CN202111323862.4

    申请日:2021-11-10

    Abstract: 本发明公开了一种基于深度感知技术的无人机驾驶员疲劳检测方法及系统,属于疲劳检测技术领域,所述方法为:得到待测疲劳特征图;提取待测疲劳特征图中眼部特征和头部姿态,建立人脸模型,并根据人脸模型得到人脸疲劳特征数据;得到眼睑纵横比EAR;根据眼睛闭合帧,计算得到眼睛闭合时间比例值PERCLOS,完成基于深度感知技术的无人机驾驶员疲劳检测;同时提供一种基于深度感知技术的无人机驾驶员疲劳检测方法的检测系统,用以实现上述方法;本发明利用计算机视觉,基于深度感知技术,面向无人机驾驶员提出的非接触式实时疲劳检测方法实用性好且精度高,降低了由疲劳诱发的无人机驾驶员的人为差错,提升了无人机的飞行安全奠定技术基础。

    基于双模态交互的开放词汇三维场景理解方法

    公开(公告)号:CN118606900A

    公开(公告)日:2024-09-06

    申请号:CN202411081166.0

    申请日:2024-08-08

    Abstract: 本发明涉及涉及图像处理和计算机视觉技术领域,公开基于双模态交互的开放词汇三维场景理解方法,包括以下步骤:将原始点云数据输入三维场景理解模型,得到三维场景理解特征,所述三维场景理解特征同时具有文本信息描述和点云特征向量;所述三维场景理解模型包括点云特征提取网络、预训练图像语义提案网络、预训练图像生成文本网络、预训练文本编码网络、自适应语言文本编码器;构建损失函数对所述三维场景理解模型进行训练,所述损失函数包括实例预测损失函数、分类损失函数、图文匹配损失函数、关联损失函数。本发明结合点云、图像和语言类的模型,通过开放词汇和未见类别提高对三维场景的理解。

    基于语义SAM大模型的三维点云鲁棒性部件分割方法

    公开(公告)号:CN118397282B

    公开(公告)日:2024-08-30

    申请号:CN202410849292.X

    申请日:2024-06-27

    Abstract: 本发明涉及计算机视觉技术领域,公开基于语义SAM大模型的三维点云鲁棒性部件分割方法,包括步骤:将三维点云数据通过多视角投影到二维深度图;使用语义SAM大模型融合各个视角下的二维深度图,得到融合特征图,以学习融合特征图中的部件级语义信息;通过适配器模块微调语义SAM大模型,将各个视角的二维深度图作为训练数据,对语义SAM大模型进行训练,使语义SAM大模型输出二维分割结果;语义SAM大模型将输出的二维分割结果集成回三维点云数据中,实现部件的三维点云分割。本发明提升了三维点云分割在复杂环境下的鲁棒性。

    一种基于自然语言大模型的翻译文本质量评估方法及系统

    公开(公告)号:CN116542260B

    公开(公告)日:2023-09-26

    申请号:CN202310814686.7

    申请日:2023-07-05

    Abstract: 本发明公开了一种基于自然语言大模型的翻译文本质量评估方法及系统,涉及自然语言处理技术领域,通过构建民航领域数据集,选择GPT‑4模型为基础模型,定义客观评估指标;通过对GPT‑4模型进行Finetune训练,得到用于评估的迁移模型,再根据性能表现对其进行调整,最后对调整后的迁移模型进行性能测试,应用测试后的迁移模型对民航英语翻译文本进行质量评价。本发明建立的迁移模型的泛化能力强,能够充分利用其迁移学习能力,提高翻译质量评估的准确性和可靠性;能从专业的角度评估翻译结果的准确性、流畅性、专业性和安全性,可广泛应用于民航英语及其他专业领域的翻译质量评估,实现自动化、客观、高效的评价。

    基于对比性语言图像预训练技术的点云实例分割方法

    公开(公告)号:CN116152267B

    公开(公告)日:2023-07-04

    申请号:CN202310448684.0

    申请日:2023-04-24

    Abstract: 本发明涉及基于对比性语言图像预训练技术的点云实例分割方法,包括步骤:获取点云数据,进行预处理后,得到文本信息、点云训练数据集;构建跨模态预训练模型,跨模态预训练模型包括稀疏卷积神经网络、预训练编码网络、预测网络;将点云训练数据集输入稀疏卷积神经网络,得到体素级别的点云特征;将文本信息与体素级别的点云特征进行融合,得到融合点云特征;对融合点云特征进行线性投影得到实例掩码特征,对文本信息提取出文本特征,将融合点云特征、实例掩码特征、文本特征输入预训练编码网络,得到查询的向量值;将查询的向量值输入预测网络,得到分割的实例结果。本发明在将融合点云特征和文本特征整合在一起,能够更好地捕获这两类信息。

    基于背景建模和细节增强的低照度图像增强方法

    公开(公告)号:CN116137023B

    公开(公告)日:2023-06-20

    申请号:CN202310425949.5

    申请日:2023-04-20

    Abstract: 本发明涉及基于背景建模和细节增强的低照度图像增强方法,包括步骤:获取若干张低照度图像和配对的正常光照图像,并进行预处理,得到训练数据集;构建图像增强网络模型,并使用目标损失函数对图像增强网络模型进行约束;使用训练数据集对所述图像增强网络模型进行训练,直到误差收敛到预设值,得到训练好的图像增强网络模型。本发明的图像增强网络模型能对低照度图像进行背景建模,以及细节恢复,并设计全局特征融合增强模块实现全局信息融合和自适应增强。能对低照度条件下捕获的图像进行增强,解决低照度图像低对比度、色彩失真、噪声放大、细节丢失等问题。

    基于背景建模和细节增强的低照度图像增强方法

    公开(公告)号:CN116137023A

    公开(公告)日:2023-05-19

    申请号:CN202310425949.5

    申请日:2023-04-20

    Abstract: 本发明涉及基于背景建模和细节增强的低照度图像增强方法,包括步骤:获取若干张低照度图像和配对的正常光照图像,并进行预处理,得到训练数据集;构建图像增强网络模型,并使用目标损失函数对图像增强网络模型进行约束;使用训练数据集对所述图像增强网络模型进行训练,直到误差收敛到预设值,得到训练好的图像增强网络模型。本发明的图像增强网络模型能对低照度图像进行背景建模,以及细节恢复,并设计全局特征融合增强模块实现全局信息融合和自适应增强。能对低照度条件下捕获的图像进行增强,解决低照度图像低对比度、色彩失真、噪声放大、细节丢失等问题。

Patent Agency Ranking