一种跨模态语义信息监督的轨迹预测方法

    公开(公告)号:CN117009787B

    公开(公告)日:2025-02-21

    申请号:CN202311029806.9

    申请日:2023-08-15

    Abstract: 本发明涉及轨迹预测技术领域,特别是指一种跨模态语义信息监督的轨迹预测方法及装置。一种跨模态语义信息监督的轨迹预测方法包括采集车辆信息、行驶信息和地图信息,获得语义监督信息以及未来轨迹真值信息;根据地图特征和历史轨迹特征获得全局背景信息特征;根据未来轨迹特征进行映射变换,获得距真值最近预测轨迹特征;根据语义特征、全局背景信息特征和距真值最近预测轨迹特征,对待训练语义监督轨迹预测模型进行对比学习训练,基于未来轨迹真值信息,获得语义监督轨迹预测模型,根据语义监督轨迹预测模型进行轨迹预测。本发明是一种针对场景语义信息的准确、高效的语义监督轨迹预测方法。

    一种多域注意力增强的三维点云语义分割方法及装置

    公开(公告)号:CN118351307B

    公开(公告)日:2024-12-24

    申请号:CN202410456964.0

    申请日:2024-04-16

    Abstract: 本发明公开了一种多域注意力增强的三维点云语义分割方法及装置,涉及计算机视觉技术领域。包括:获取待分割的三维点云数据;将三维点云数据输入到训练好的多域注意力增强的三维点云语义分割模型;其中,三维点云语义分割模型包括卷积注意力编码器模块、Transformer编码器模块、卷积注意力解码器模块以及分割头模块;根据三维点云数据以及三维点云语义分割模型,得到三维点云语义分割结果。本发明设计了一种点云语义分割方法,其使用多域注意力,在控制运算成本的前提下增强网络分割性能,并形成自定义配置框架,方便用户控制模型训练等过程,并快速部署。

    基于边界连续性感知高斯编码器的目标检测方法

    公开(公告)号:CN119027648A

    公开(公告)日:2024-11-26

    申请号:CN202411073120.4

    申请日:2024-08-06

    Abstract: 本发明涉及有向目标检测领域,特别是指一种基于边界连续性感知高斯编码器的目标检测方法。所述方法包括:获取待进行有向目标检测的二维图像数据;将二维图像数据输入到构建好的有向目标检测器;其中,有向目标检测器包括边界连续性感知高斯编码器模块;根据二维图像数据以及边界连续性感知高斯编码器模块,得到周期连续的二维高斯分布,根据二维高斯分布得到二维有向检测框。本发明利用周期连续的二维高斯分布来描述有向二维矩形区域,从而可以消除边界不连续问题,提升检测精度。

    一种基于扩散模型的时序动作定位方法

    公开(公告)号:CN118279786B

    公开(公告)日:2024-11-22

    申请号:CN202410229845.1

    申请日:2024-02-29

    Abstract: 本发明涉及计算机视觉技术领域,特别是指一种基于扩散模型的时序动作定位方法,方法包括:获取待处理的视频数据;将视频数据输入到时序特征提取器,得到视频数据的特征;将特征输入到构建好的多尺度的时序表征感知TRP编码器,得到视频特征的长期依赖时序特征信息;将长期依赖时序特征信息输入到训练好的扩散检测器模型,得到视频数据的时序动作定位结果。本发明设计了一种渐进且细化方法,使得精确的边界定位成为可行。并引入了一种时序建模方法,通过强化时序建模来捕捉特征的时序演变信息和长期依赖信息,从而进一步提升动作定位的准确性。

    一种基于深度信息传播的通用深度图补全方法及装置

    公开(公告)号:CN117953029B

    公开(公告)日:2024-06-07

    申请号:CN202410356521.4

    申请日:2024-03-27

    Abstract: 本发明涉及图像增强技术领域,特别是指一种基于深度信息传播的通用深度图补全方法及装置。基于深度信息传播的通用深度图补全方法包括:使用深度传感器对场景进行数据采集,获得稀疏深度图;使用彩色相机对场景进行数据采集,获得RGB图;采用预填充方法,对稀疏深度图进行深度填充,获得稠密深度图;将稀疏深度图、RGB图和稠密深度图,输入ResUNeT网络进行特征提取,获得亲和力图;根据稠密深度图以及亲和力图进行迭代传播,获得补全深度图。本发明是一种克服深度传感器分辨率不足的补全精度高、推理速度快的深度图补全方法。

    一种两阶段追踪方法及装置

    公开(公告)号:CN118115913A

    公开(公告)日:2024-05-31

    申请号:CN202410204210.6

    申请日:2024-02-23

    Abstract: 本发明涉及深度学习计算机视觉领域目标追踪领域,特别是指一种两阶段追踪方法及装置,方法包括:获取待进行目标追踪的视频数据,根据视频数据获取图像对;构建基础追踪模型,采用双向视觉引导训练方法、视频序列微调方法以及目标层级的随机擦除数据增强方法,对基础追踪模型进行训练,得到训练好的追踪模型;根据图像对以及训练好的追踪模型,得到目标追踪结果。本发明提出了一种两阶段的训练方式,能够在有效利用视频序列信息的同时不增加任何推理成本。除此之外,本发明提出了一种目标层级的随机擦除数据增强方案,能够很好模拟在追踪过程中出现的遮挡问题,使训练的追踪器更加鲁棒。

    一种基于轻量结构化线地图的视觉定位方法

    公开(公告)号:CN116662600B

    公开(公告)日:2024-05-14

    申请号:CN202310678818.8

    申请日:2023-06-08

    Abstract: 本发明公开了一种基于轻量结构化线地图的视觉定位方法,包括:通过图像检索,将查询图像与数据库图像进行图像匹配,根据图像匹配结果,找到与查询图像最相似的多个数据库图像,作为候选数据库图像;构建用于视觉定位的线地图;对所述查询图像和所述候选数据库图像进行线提取和匹配,构建二维到三维的线对应关系;基于构建的二维到三维的线对应关系,求解初始姿态;对求解出的初始姿态进行姿态迭代优化,得到最终的相机位姿。本发明可在较低的内存消耗下估计出较好的相机六自由度位姿,具有重大的应用前景和价值。

Patent Agency Ranking