-
公开(公告)号:CN119941947A
公开(公告)日:2025-05-06
申请号:CN202411868093.X
申请日:2024-12-18
Applicant: 北京科技大学
IPC: G06T15/00 , G06T15/20 , G06T15/50 , G06N3/0475 , G06N3/094
Abstract: 本发明提供一种基于三维高斯泼溅的仿真方法及系统,涉及计算机视觉技术领域,方法包括:构建三维场景;确定三维场景中的3D高斯点;将3D高斯点投影到二维图像平面上,确定二维高斯点;根据仿射变换矩阵,计算出各个高斯体的深度,形成高斯体排序列表;通过Alpha Blending混合透明度算法,合成计算最终颜色;根据最终颜色,对三维场景进行渲染,得到第一渲染图像;基于物理渲染方式或者基于分数蒸馏采样重建方式,对第一渲染图像进行优化,得到第二渲染图。本发明可以提高仿真图像的真实性,优化数据处理和渲染算法,提升实时性能,使得仿真平台能够进行更高效的实时仿真。
-
公开(公告)号:CN116012843A
公开(公告)日:2023-04-25
申请号:CN202310294094.7
申请日:2023-03-24
Applicant: 北京科技大学
IPC: G06V20/70 , G06V20/64 , G06V10/26 , G06V10/774 , G06V10/96
Abstract: 本发明提供一种虚拟场景数据标注生成方法及系统,涉及仿真场景构建技术领域。包括:通过半自动布局物体的方式,对素材进行导入;对导入的素材进行图像数据的捕获;对导入的素材的目标物体遮挡率进行计算以及自动标注;对处理后的素材进行三维模型导出,完成基于虚幻引擎的虚拟场景数据标注生成。本发明的输出标注信息涵盖图像、标签、掩码、场景目标信息、场景图(语义化场景描述)信息、甚至可以提供场景中特定物体的三维顶点模型以及整个场景合而为一的大场景网络模型,满足较为传统且更大众的二维图像的同时,同时也可以支持更新的研究方向更广阔的需求。
-
公开(公告)号:CN117911788A
公开(公告)日:2024-04-19
申请号:CN202410181444.3
申请日:2024-02-18
Applicant: 北京科技大学
IPC: G06V10/764 , G06V10/74 , G06V10/26 , G06N3/0464 , G06N3/045 , G06N3/09
Abstract: 本发明公开了一种基于仿真环境的场景结构标注数据生成方法,包括以下步骤:获取图像并对图像进行预处理;基于环境认知抽象算法对图像中的智能体进行实体信息抽取以及实体关系抽取;基于抽取结果进行场景知识结构表征,采用物体‑关系‑物体的三元组集合表征图结构存储,采用抽象语言特征的语言模型对图结构存储进行嵌入编码保存得到节点信息,存储节点信息并输出得到标注。本发明还公开了一种基于仿真环境的场景结构标注数据生成装置。本发明利用知识抽取方法和图结构知识表征,高效提炼图像中的关键信息,大批量准确的形成场景图语义标注,有效提高场景图数据标注的效率。
-
公开(公告)号:CN116702459A
公开(公告)日:2023-09-05
申请号:CN202310624323.7
申请日:2023-05-30
Applicant: 北京科技大学
Abstract: 本发明提供一种基于仿真红外成像导航模型的对抗仿真导航方法及系统,涉及计算机仿真技术领域,包括:仿真控制模块获取外部平台信息,根据外部平台信息更新场景信息;仿真控制模块将场景信息传递给红外可视仿真模块,通过红外可视仿真模块对红外与环境进行仿真成像,获得红外观测图像;通过红外可视仿真模块将红外观测图像传递至导航模型,通过导航模型对红外观测图像进行检测跟踪和运动决策计算,获得运动决策结果;将运动决策结果传回仿真控制模块,进行位置姿态更新,完成一帧仿真功能,等待下一帧时的数据输入,进行仿真继续。本发明提出了一个简单通用的红外仿真导航模型框架,将仿真实现流程进行抽象归纳,统一了常见仿真红外导航模型的视线流程与结构。
-
公开(公告)号:CN116012843B
公开(公告)日:2023-06-30
申请号:CN202310294094.7
申请日:2023-03-24
Applicant: 北京科技大学
IPC: G06V20/70 , G06V20/64 , G06V10/26 , G06V10/774 , G06V10/96
Abstract: 本发明提供一种虚拟场景数据标注生成方法及系统,涉及仿真场景构建技术领域。包括:通过半自动布局物体的方式,对素材进行导入;对导入的素材进行图像数据的捕获;对导入的素材的目标物体遮挡率进行计算以及自动标注;对处理后的素材进行三维模型导出,完成基于虚幻引擎的虚拟场景数据标注生成。本发明的输出标注信息涵盖图像、标签、掩码、场景目标信息、场景图(语义化场景描述)信息、甚至可以提供场景中特定物体的三维顶点模型以及整个场景合而为一的大场景网络模型,满足较为传统且更大众的二维图像的同时,同时也可以支持更新的研究方向更广阔的需求。
-
公开(公告)号:CN118230022A
公开(公告)日:2024-06-21
申请号:CN202410181460.2
申请日:2024-02-18
Applicant: 北京科技大学
IPC: G06V10/764 , G06N5/04 , G06N5/02 , G06N3/088 , G06V10/774 , G06V10/80 , G06V10/74
Abstract: 本发明涉及数据处理技术领域,公开了一种基于结构化场景理解的目标导航方法,包括:基于仿真平台构建的场景结构标注数据,结合现有知识规则对场景结构标注数据进行扩展得到组合标签的图结构数据;获取仿真平台的操作动作标签,并基于现有知识规则对操作动作标签进行修正;基于修正后的操作动作对组合标签分类器进行训练以输出带有组合标签的知识图数据集;基于知识图数据集进行包括图编码、时序随机游走、知识网络推理的知识推理,最终输出决策结果。本发明还公开了应用该方法的装置。降低了图像纹理所带来的干扰,减少依赖于图像和物体的本身特征,改善了适应性差的问题,并且融合了常识策略知识提升智能体决策的准确性。
-
公开(公告)号:CN115983352B
公开(公告)日:2023-06-16
申请号:CN202310111709.8
申请日:2023-02-14
Applicant: 北京科技大学
IPC: G06N3/0475 , G06N3/08 , G06V10/82 , G06V10/774
Abstract: 本发明涉及图像处理技术领域,特别是指一种基于辐射场和生成对抗网络的数据生成方法及装置,一种基于辐射场和生成对抗网络的数据生成方法包括:对车辆事故场景进行数据采集,获得训练数据集;基于生成对抗网络和辐射场网络建立模型,获得数据生成训练模型;根据训练数据集、数据生成训练模型和随机五种噪声进行训练,获得数据生成模型;输入随机五种噪声,通过数据生成模型,获得自动驾驶测试图片。本发明提供了一种具备三维一致性的可控高质量数据的生成方法。
-
公开(公告)号:CN115983352A
公开(公告)日:2023-04-18
申请号:CN202310111709.8
申请日:2023-02-14
Applicant: 北京科技大学
IPC: G06N3/0475 , G06N3/08 , G06V10/82 , G06V10/774
Abstract: 本发明涉及图像处理技术领域,特别是指一种基于辐射场和生成对抗网络的数据生成方法及装置,一种基于辐射场和生成对抗网络的数据生成方法包括:对车辆事故场景进行数据采集,获得训练数据集;基于生成对抗网络和辐射场网络建立模型,获得数据生成训练模型;根据训练数据集、数据生成训练模型和随机五种噪声进行训练,获得数据生成模型;输入随机五种噪声,通过数据生成模型,获得自动驾驶测试图片。本发明提供了一种具备三维一致性的可控高质量数据的生成方法。
-
-
-
-
-
-
-