一种基于位置编码增强的点云渲染方法、系统及设备

    公开(公告)号:CN118587341A

    公开(公告)日:2024-09-03

    申请号:CN202410682122.7

    申请日:2024-05-29

    Abstract: 本发明公开了一种基于位置编码增强的点云渲染方法、系统及设备。本发明在神经网络训练阶段需要与点云观察视角对齐的2D图片。在训练过程当中,首先对点云做位置编码。本发明使用超参网络和高斯采样来增强位置编码,之后再输入渲染网络得到最后结果。其中位置编码增强网络中的超参网络具体实现如下:首先将超参网络中的线性层Ⅰ视为低频段sin(wx+b)的ω和b;其次定义ReLU层中的激活函数;最后将超参网络中的线性层Ⅱ视为高频段sin(wx+b)的ω和b。本发明使得位置编码的过程参与神经网络整个可微过程的优化,从而生成更加准确和精细的渲染图像。

    基于密集划分策略的交叉视角地理定位方法及系统

    公开(公告)号:CN118247676A

    公开(公告)日:2024-06-25

    申请号:CN202410215001.1

    申请日:2024-02-27

    Abstract: 本发明公开了一种基于密集划分策略的交叉视角地理定位方法及系统。本发明构建的地理定位网络模型包含无人机分支和卫星图分支,两个分支采用共享权重的学习方式,每个分支包括特征提取部分、特征划分处理部分和分类监督部分。网络初始输入为给定图像X,根据图像视角类型选择进入对应分支;给定图像X通过骨干网络进行特征提取,获得高维特征;采用密集划分策略对高维特征图进行划分得到分区块;然后对分区块进行平均池化操作,得到压缩特征;利用分类器模块对每个压缩特征预测地理标签,并利用交叉熵损失计算差异,从而优化网络模型。本发明从局部和全局两个层面增强算法对图像中物体尺寸和位置偏移的鲁棒性,提高了多视角图像匹配的准确性。

    一种基于深度图的室内实时三维语义分割方法

    公开(公告)号:CN113139965A

    公开(公告)日:2021-07-20

    申请号:CN202110297418.3

    申请日:2021-03-19

    Abstract: 本发明公开了一种基于深度图的室内实时三维语义分割方法。首先通过RGB‑D相机运用三维稠密实时重建的技术,来完成实时重建,得到三维稠密的TSDF体素三维模型;然后通过计算机图形学的方法来进行平面检测,通过实时的平面检测,将平面部分剔除后,三维模型剩下的就是各个独立的三维物体的体素模型;最后获得的相互隔离的三维物体的体素模型放入到三维卷积神经网络中,进而快速和准确地实现实时三维语义分割的任务。本发明方法分割的结果能更好的表现出物体的纹理信息,能够进一步直接使用在AR或VR场景中。更加的就有可解释性,同时也大大的降低了算力,能够实现实时的语义分割;更加适用于大场景的三维语义分割。

Patent Agency Ranking