-
公开(公告)号:CN118941697A
公开(公告)日:2024-11-12
申请号:CN202310520564.7
申请日:2023-05-09
申请人: 华为技术有限公司
摘要: 本申请实施例提供了一种体素模型的存储方法和读取方法,其中,该存储方法包括:生成体素模型数据,所述体素模型数据包括体素数据、面网格数据、几何体数据和标签数据,所述体素数据包括至少一种材料或者颜色在体素模型中的多个体素中的每个体素内的占比,所述面网格数据用于描述体素模型的表面的多边形,所述几何体数据用于描述体素模型内的多面体的特征,几何体数据包括第一标签和第二标签,标签数据用于定义第一标签对应的材料或者颜色以及还用于定义第二标签对应的物理仿真边界条件;将所述体素模型数据存储至存储器。本申请技术方案优化了体素模型数据格式,提高了体素模型的使用效率。
-
公开(公告)号:CN118918743A
公开(公告)日:2024-11-08
申请号:CN202410989096.2
申请日:2024-07-23
申请人: 武汉大学
摘要: 本发明提供一种血管介入手术训练方法及系统,其中,该血管介入手术训练方法包括:获取医学图像,并基于所述医学图像重构三维血管模型;控制预先构建的导丝结构在所述三维血管模型中运动;所述导丝结构的运动过程由触觉设备和模拟磁场配合控制,并由所述触觉设备提供触觉反馈;记录所述导丝结构在所述三维血管模型中的运动过程,并基于运动过程生成训练评价结果。通过本发明,将导丝结构的物理特性与磁驱动相结合,更加贴合实际手术的手感,通过触觉设备接收导丝结构在运动过程中的触觉反馈,更加真实地模拟出介入手术的操纵感知,解决了现有的相关技术中存在的训练效果不佳的问题。
-
公开(公告)号:CN115211131B
公开(公告)日:2024-11-01
申请号:CN202080097891.0
申请日:2020-12-07
申请人: 诺基亚技术有限公司
IPC分类号: H04N21/854 , H04N21/845 , H04N21/2343 , H04N19/597 , G06T15/08
摘要: 公开了用于视频编码和解码的各种方法、设备及计算机程序产品。在一些实施例中,用于视频编码的方法包括:获得压缩体积视频数据,该压缩体积视频数据表示三维场景或对象(71);将该压缩体积视频数据封装到数据结构中(72);获得从特定视口看到的该三维场景的至少一部分的二维投影的数据(73);以及将该二维投影的数据包括到该数据结构中(74)。
-
公开(公告)号:CN118864767A
公开(公告)日:2024-10-29
申请号:CN202411075290.6
申请日:2024-08-07
申请人: 北京航空航天大学
摘要: 本发明涉及一种基于3D高斯的小行星表面精细三维重建方法,包括对深空图像统计灰度直方图,对直方图划分区间并计算方差,对方差大于阈值的区间进行自适应滤波;针对滤波后的深空图像提取小行星稀疏点云并拟合出小行星近似几何形状的简单组合体,为3D高斯加入约束条件进行剪枝;利用光线体渲染策略,渲染出给定视角方向的像素颜色;针对渲染结果,在优化过程中利用像素真实颜色监督高斯颜色,利用深度失真损失微调高斯深度,利用物体表面法线监督高斯方向;针对优化的结果,使用泊松重建得到小行星表面精细网格模型。本发明能实现全局成像条件下的小行星表面精细三维重建,降低人工参与度,缩短小行星重建周期,提升小行星表面三维重建的精度。
-
公开(公告)号:CN118644603B
公开(公告)日:2024-10-29
申请号:CN202411125785.5
申请日:2024-08-16
IPC分类号: G06T15/00 , G06T15/08 , G06N3/0455 , G06N3/09 , G06N3/0464
摘要: 本发明公开了一种基于体渲染知识蒸馏的在线矢量地图构建方法及装置,属于自动驾驶感知技术领域。方法包括:搭建多模态矢量地图构建模型,将激光雷达三维图像数据和多视角二维图像数据作为输入,将预训练完成的多模态矢量地图构建模型作为教师模型;搭建多视角二维图像数据作为输入的单模态矢量地图构建模型以作为学生模型;利用体渲染技术和知识蒸馏方法,实现教师模型对学生模型在深度特征和语义特征两个角度上的监督训练,监督训练过程中的总损失函数是由学生模型相对于教师模型的体渲染深度损失和体渲染语义损失确定得到的;利用训练完成的学生模型进行在线矢量地图构建。本发明在构建矢量地图时能够同时满足准确性和时效性。
-
公开(公告)号:CN118807200A
公开(公告)日:2024-10-22
申请号:CN202410797878.6
申请日:2024-06-19
申请人: 不鸣科技(杭州)有限公司
摘要: 本申请提供了一种体积云的绘制方法、装置、电子设备及程序产品,属于计算机技术领域。在该方法中,在虚拟游戏引擎的三维虚拟场景中显示光标,用户可以通过移动光标使终端显示目标绘制对象,并通过控制目标绘制对象来进行绘制操作。终端根据用户的绘制操作显示出用户所绘制的体积云的形状,并根据目标绘制对象关联的绘制参数来渲染体积云。相较于传统方式中,在虚拟游戏引擎外绘制出体积云贴图,再将体积云贴图导入游戏引擎中以进行体积云渲染。在本方式中终端能够直接在虚拟游戏引擎的三维虚拟场景中根据绘制操作显示体积云的形状以进行体积云渲染,更加方便快捷,人机交互效率更高,大大提高了工作效率。
-
公开(公告)号:CN118781000A
公开(公告)日:2024-10-15
申请号:CN202410906208.3
申请日:2024-07-08
申请人: 武汉科技大学
摘要: 一种基于图像增强和NeRF的单目稠密SLAM地图构建方法,步骤包括:首先将弱光RGB图片输入到基于融合Retinex理论与注意力机制的低光照图像增强算法中,用于增强弱光图像的亮度和对比度并保留图像细节信息,然后使用四叉树法均匀化特征点,使得特征点均匀分布在整幅图像中,并使用基于网格的运动统计算法评估特征匹配的可靠性,结合随机样本一致性RANSAC算法进一步消除误匹配特征,基于相机运动估计和三角测量得到相机位姿,并通过坐标转换得到稀疏点云信息,最后基于神经辐射场技术,结合颜色和深度损失函数,利用得到的相机位姿、输入图像以及3D点云信息,完成三维稠密地图构建。本发明结合了基于融合Retinex理论与注意力机制的低光照图像增强算法与四叉树法以及基于网格的运动统计算法和神经辐射场技术,能提高轨迹追踪和建图的准确率,本发明在实现准确的稠密地图构建方面取得了显著的效果。
-
公开(公告)号:CN118762133A
公开(公告)日:2024-10-11
申请号:CN202411245908.9
申请日:2024-09-06
申请人: 杭州美腾思智能科技有限公司
摘要: 本发明公开一种基于三维高斯溅射技术的表情可编辑的语音驱动人脸重建方法,属于数据处理技术领域;该方法包括:输入视频素材构成视频数据集;对视频素材的视频帧的进行人脸三维重建;构建音频特征到三维人脸模型人脸参数的映射;构建动态显式辐射场;接受音频和表情特征输入,通过所述向量量化的变分编码器回归重演人脸的表情参数和下颚姿态系数,结合源人脸其它FLAME参数输入构建的动态显式辐射场回归高斯基元的动态属性合成重演视频;对目标人物的外观和表情编辑。本发明通过参数化可学习哈希编码结构和显式三维高斯泼溅,大幅加速了训练和渲染效率,能够在保证高质量渲染的同时,显著缩短计算时间,从而提高了模型的实际应用可行性。
-
公开(公告)号:CN118691756A
公开(公告)日:2024-09-24
申请号:CN202411171367.X
申请日:2024-08-26
申请人: 中国人民解放军国防科技大学
摘要: 本申请涉及一种基于隐式神经表征的单目语义重建方法。所述方法包括:对单目图像序列进行基于隐式神经场景表征,学习特定的初始场景表征函数;根据场景表征函数和图形学中的体积渲染原理,得到任意视角下的光线颜色、法向量和语义信息并分别设计几何损失函数监督几何函数的学习过程,设计纹理损失函数监督纹理函数的学习过程,语义损失函数监督语义函数的学习过程,同时设计一致性损失函数对优化后的语义函数进行重建;设置正则约束来监督初次优化后的几何函数的优化,利用优化后的纹理函数、重建后的语义函数和最终的几何函数进行三维语义场景地图重建。采用本方法能够重建高分辨率语义地图的同时保证较低的内存开销。
-
公开(公告)号:CN118691721A
公开(公告)日:2024-09-24
申请号:CN202410692380.3
申请日:2024-05-30
申请人: 支付宝(杭州)信息技术有限公司
IPC分类号: G06T13/40 , G06T15/00 , G06T15/08 , G06T15/20 , G06V40/10 , G06V40/16 , G06V10/82 , G06N3/045 , G06N3/0475 , G06N3/09
摘要: 本说明书实施例提供一种训练生成模型的方法和装置,其中生成模型用于生成人像渲染数据。训练方法包括,首先利用多个不同人像I D的多个视频,进行多轮联合训练。其中,针对任意目标I D的联合训练包括,利用身份编码器,从目标I D对应的目标视频的视频帧中提取I D专有特征,其中包括,目标I D外形特征、目标I D超网络参数。将目标I D超网络参数施加于生成模型的I D专用部分,得到改造的生成模型;然后利用改造的生成模型处理驱动信号和目标I D外形特征,得到渲染数据。根据渲染数据和目标视频,更新身份编码器和生成模型中的共享部分。联合训练之后,还可以执行针对特定I D的专用训练,得到特定I D专用的生成模型。
-
-
-
-
-
-
-
-
-