-
公开(公告)号:CN119580208A
公开(公告)日:2025-03-07
申请号:CN202411313188.5
申请日:2024-09-20
Applicant: 桂林电子科技大学
IPC: G06V20/56 , G06V20/40 , G06V20/64 , G06V10/25 , G06V10/764 , G06V10/766 , G06V10/80 , G06V10/82 , G06T7/246 , G06N3/0455 , G06N3/0464 , G06N3/08
Abstract: 本发明提供一种基于DETR的3D目标检测与跟踪方法,方法包括:从LIDER相机获取连续帧的点云数据流;将连续帧的原始点云数据转换为规则的体素网格并提取其高维视频特征;学习了一组4D Tubelet Query,并利用时间自注意力和空间交叉注意力模块对视频片段的动态时空特性进行建模,以增强其表征能力;最后,本发明的模型对每个Tubelet Query进行边界框预测,使用集对集损失来衡量真实值与预测值之间的差异实现多目标跟踪任务的端到端学习。本发明通过设计Tubelet,深度挖掘并整合时空维度上的信息,将多目标跟踪任务简化为检测任务,以实现检测和跟踪任务的统一,减少了传统多目标跟踪对帧级检测器的严重依赖。
-
公开(公告)号:CN119478355A
公开(公告)日:2025-02-18
申请号:CN202411522575.X
申请日:2024-10-28
Applicant: 桂林电子科技大学
IPC: G06V10/25 , G06V10/80 , G06V10/774 , G06V10/82 , G06N3/0499
Abstract: 本发明公开了一种基于局部到全局多模态融合的3D目标检测方法,方法包括:首先获取点云及其关联的六视图图像,采用极坐标采样技术对点云进行密集化处理,并通过3D主干网络生成不同下采样率的体素特征,利用区域建议网络生成初始3D建议框;同时,使用2D主干网络从六视图图像中提取密集的语义图像特征。在多模态融合阶段,局部融合模块和全局融合模块协同工作,将多层次体素特征、语义图像特征、初始3D建议框以及原始点云的位置信息自适应地整合在一起,并通过动态聚合模块实现局部与全局融合特征间的信息交互。本发明利用局部到全局的跨模态融合,整合细粒度和整体特征,显著提升了3D目标检测性能。
-
公开(公告)号:CN119478213A
公开(公告)日:2025-02-18
申请号:CN202411505637.6
申请日:2024-10-28
Applicant: 桂林电子科技大学
Abstract: 本发明公开了一种基于无人机与边缘计算的三维重建方法,涉及无人机技术、边缘计算和三维场景重建领域。该方法包括:无人机携带单目相机对目标场景采集标清视频流;边缘计算设备实时接收和处理标清视频流,生成初步的低精度三维重建;边缘计算设备通过分析低精度重建结果识别出缺陷区域,对无人机的飞行路径进行优化;无人机根据优化的路径,对目标场景采集高清视频流;边缘计算设备对该高清视频流进行离线高精度三维重建,以提高重建场景的准确性和细节表达能力。本发明通过无人机、边缘计算端的协同工作,实现了采集过程中实时数据处理、反馈和决策,以及离线阶段高精度三维重建结果存储,有效提升了三维重建的实时性和准确性。
-
公开(公告)号:CN119559628A
公开(公告)日:2025-03-04
申请号:CN202411604366.X
申请日:2024-11-11
Applicant: 桂林电子科技大学
IPC: G06V20/64 , G06V10/20 , G06V10/25 , G06V10/44 , G06V10/75 , G06V10/74 , G06V10/80 , G06V10/82 , G06N3/045 , G06N3/0464
Abstract: 本发明公开了一种基于框匹配的鲁棒多模态3D目标检测方法,方法包括:首先,从通过Polar Sampling处理后的密集化LiDAR点云和多视角图像中分别提取特征,生成3D和2D候选框。通过学习3D与2D候选框间的对应关系,减少了对精确校准的依赖,实现了高效的多模态特征融合。该过程包含两个层级的匹配:视图级别匹配确定最相关的图像视图特征,提案级别匹配则建立3D与2D候选框的精确对应。基于匹配的融合模块结合这些候选框的ROI特征,生成最终预测3D框。本发明通过框级匹配实现跨模态特征对齐,不仅整合了细粒度和整体特征,还显著增强了系统应对传感器异步、位置偏移及图像退化等实际问题的能力,从而大幅提升了3D目标检测的稳定性和安全性。
-
公开(公告)号:CN119181068A
公开(公告)日:2024-12-24
申请号:CN202411312693.8
申请日:2024-09-20
Applicant: 桂林电子科技大学
Abstract: 本发明提供了一种基于多分辨率BEV的环境感知方法包括:获取六视图图像;构建基于多分辨率BEV的环境感知预测模型;将所述六视图图像输入所述多分辨率BEV环境感知预测模型,对一个包含多个分辨率BEV的BEV list分别获取时间特征和空间特征,基于所述空间特征和时间特征,更新高质量BEV list,基于所述BEV list,融合BEV list中各个分辨率BEV的特征,生成最终的BEV list以用于不同的环境感知任务。本发明对BEV list进行了时空的特征提取及融合,充分利用了时序信息和高层语义信息用于加强环境感知,通过对BEV list的设计,更加关注30m以内的区域即BEV list中的高分辨率BEV,对30m以外的区域使用BEV list中的低分辨率BEV表示。本方案能够在保持关键区域高精度的同时降低远距离区域的计算开销。
-
公开(公告)号:CN111681335A
公开(公告)日:2020-09-18
申请号:CN202010216673.6
申请日:2020-03-18
Applicant: 桂林电子科技大学
IPC: G07C5/08 , G06K9/62 , G06N3/04 , B60W30/095 , B60W30/09
Abstract: 本发明公开了一种基于LSTM技术的汽车轨迹预测系统及其预测方法,包括预测系统控制板、视屏采集模块、速度采集模块、信息处理模块、辅助驾驶模块、弹道预测模块、运动预测模块、LSTM模型建立模块、LSTM分析模块、风险预警模块、信息存储模块、应急管理模块和指令输出模块,所述预测系统控制板顶部一侧设置有视屏采集模块,所述预测系统控制板一侧中心处设置有速度采集模块,该一种基于LSTM技术的汽车轨迹预测系统及其预测方法操作方便,将汽车轨迹预测的数据进行高度集成,通过LSTM技术算法进行预测,计算不同的汽车轨迹预测进行比对,有利于降汽车轨迹运动变更发生的风险,使其智能化管理,有利于保护乘客与驾驶员的人身安全。
-
公开(公告)号:CN103258209A
公开(公告)日:2013-08-21
申请号:CN201310181255.8
申请日:2013-05-16
Applicant: 桂林电子科技大学
IPC: G06K9/62
Abstract: 本发明涉及一种基于三阶统计特征和组合分类器的数字图像篡改盲检测方法。首先由真实图像和篡改图像构成训练集,利用三阶统计特征—条件共生概率矩阵对每幅图像分块离散余弦变换系数的块内和块间相关性进行建模,提取用于图像篡改检测的特征数据并按4(2T+1)3计算其特征维数;其后进行组合分类器训练,并保存基分类器模块文件;然后对测试图像,按上述方法获得特征数据;最后由保存的基分类器检测出数字图像是否篡改。将三阶统计特征用于图像内容特征描述,基于组合分类器对图像篡改进行检测,能够取得较高的图像篡改检测正确率,比基于支持向量机的图像篡改检测在实时性方面具有明显优势,大大提高了数字图像取证的实用性。
-
公开(公告)号:CN119904860A
公开(公告)日:2025-04-29
申请号:CN202510040317.6
申请日:2025-01-10
Applicant: 桂林电子科技大学
Abstract: 本发明公开了一种基于三维点云的果实自动计数方法,涉及水果果实估产技术领域。该方法首先利用LIDAR相机捕获果园场景的点云序列数据及其对应的相机运动轨迹信息,并对三维场景进行俯瞰得到水果占用地图FOM;然后构建基于点云序列数据的高效物体检测模块,使用时空注意力引导的快速目标建议与状态初估计网络,基于早期集成阶段的FOM引导RPN以及中间集成阶段Fusion R‑CNN融合框架进行果实检测;最后基于AB3DMOT算法,构建基于点云序列数据的果实跟踪模块,进行时空记忆导向的运动预测和水果占用地图更新。本发明通过将物体状态随时间变化的累积记忆信息回灌至检测模块,显著提升了目标检测器检测3D目标时的精度和跟踪效率,实现了三维空间中物体持续定位、跟踪和识别。
-
公开(公告)号:CN118781189A
公开(公告)日:2024-10-15
申请号:CN202410903520.7
申请日:2024-07-08
Applicant: 桂林电子科技大学
Abstract: 本发明公开了一种基于多级3D高斯的密集RGB‑D SLAM方法,涉及三维场景重建和机器人自主导航领域。该方法包括:从RGB‑D相机获取连续的RGB图像和深度图数据流;对RGB‑D数据中的关键帧进行跟踪;设计多级高斯表示技术,将场景的几何和纹理细节分别用不同级别的高斯分布进行描述,并通过映射构建场景的三维地图;设计高斯渲染器对这些高斯分布进行渲染,生成RGB图像、深度图和可见性轮廓图;RGB‑D数据流与渲染结果作为输入反馈给系统的损失优化器,迭代优化多级高斯表示,最终重构出三维场景。本发明采用上述的一种基于多级3D高斯的密集RGB‑D SLAM方法,解决了现有方法在深度误差和渲染质量方面的不足,实现高精度的场景重建和导航。
-
公开(公告)号:CN111310735A
公开(公告)日:2020-06-19
申请号:CN202010216672.1
申请日:2020-03-18
Applicant: 桂林电子科技大学
IPC: G06K9/00 , G07C5/08 , G06N3/04 , B60W30/095
Abstract: 本发明公开了一种基于LSTM技术的汽车轨迹预测方法,包括以下步骤:步骤一,实时信息采集;步骤二,提取轨迹片段;步骤三,数据转换分类;步骤四,数据集挑选处理;步骤五,神经网络训练;步骤六,车辆轨迹预测;选取车道线清晰、同时具有多个岔道的路段,并进行信息采集,在车流量适中的时间点进行信息采集,采样频率为5赫兹;提取直行、左转和右转的车辆轨迹片段,并对其进行处理;该基于LSTM技术的汽车轨迹预测方法,利用对预测视界内相邻车辆在单位时间内偏离原先直线轨迹的角度变化趋势,辅以转向灯的开闭进行预测视界内相邻车辆的直行、向左或向右的概率,明显提高了长时预测车辆轨迹的准确率,实现了相邻车辆车辆轨迹的真实预测。
-
-
-
-
-
-
-
-
-