一种基于点云渲染的VR远程会议方法

    公开(公告)号:CN117692597A

    公开(公告)日:2024-03-12

    申请号:CN202311699584.1

    申请日:2023-12-08

    Applicant: 四川大学

    Abstract: 本发明提供了一种基于点云渲染的VR远程会议方法,属于视频会议技术领域,该方法为:确定全局虚拟VR远程会议环境布局,并计算局部坐标系到全局坐标系的变换矩阵;将相机捕获的每个视界屋的三维数据从局部坐标系变换至全局坐标系,并获取各VR远程会议参与者视点的位置和方向;利用深度估计算法估计从VR远程会议参与者视点处看向场景的像素深度,然后利用交叉视图检验过滤异常像素点,生成点云数据集;利用点云渲染算法绘制VR远程会议参与者视点下的RGBA图像,将绘制的RGBA图像发送至各VR远程会议参与者。与传统视频会议相比,本发明能给参与者更真实的人眼交互感,仿佛身处同一空间。

    基于神经辐射场的空间变化室内场景光照估计方法

    公开(公告)号:CN117671126A

    公开(公告)日:2024-03-08

    申请号:CN202311700573.0

    申请日:2023-12-12

    Applicant: 四川大学

    Abstract: 本发明提出了一种基于神经辐射场的空间变化室内场景光照估计方法,该方法通过构建神经辐射场模型,通过训练场景的多视角图像,对室内场景空间变化的光照情况进行估计,并根据估计的场景逐像素光照贴图来表示不同位置的光照情况。所提出的方法利用神经辐射场模型获得采样点的颜色值和密度,并输入分解网络得到几何和材质等参数,最后由光照估计网络得到预测的球面高斯形式表示的光照贴图。因此,所提出的方法可以在室内场景不同位置处有效地表示和估计空间变化的光照情况,以便在后续虚实融合渲染任务中获得更具有真实感的结果。

    基于多视角的大面积图像修复方法

    公开(公告)号:CN117372295A

    公开(公告)日:2024-01-09

    申请号:CN202311354875.7

    申请日:2023-10-19

    Applicant: 四川大学

    Abstract: 本发明提出了一种基于多视角的大面积图像修复方法,该方法采用了两个方向的的引导图像,通过特征对齐得到破损图像要修复区域的特征信息,以加强图像破损区域较大时的修复能力。所提出的方法利用3个相同结构的编码器获取两个方向的引导图像与破损图像的纹理特征与结构特征,再通过特征对齐网络将多个纹理特征与结构特征分别进行特征对齐,最后通过特征均衡化处理,保证特征融合后的色彩域与空间域特征的一致性,把输出的特征与解码器相连接,得到修复的结果。所提出的基于多视角的图像修复方法引入梯度重建损失函数,减少修复结果的伪影,提高修复质量。此外,所提出的方法的数据集是本发明自主采集整理及构建的。

    一种三维人脸表示方法及其参数测量装置及方法

    公开(公告)号:CN112687009B

    公开(公告)日:2021-09-14

    申请号:CN202011601169.4

    申请日:2020-12-29

    Applicant: 四川大学

    Abstract: 本申请提供一种三维人脸表示方法及其参数测量装置及方法,装置包括:数据采集模块集、灯源阵列组模块、支架和处理终端,数据采集模块集与处理终端连接,灯源阵列组模块设置在支架上;数据采集模块组用于测量重建被测对象人脸几何参数与皮肤表面的反射参数,数据采集模块组包括一对数据采集模块,数据采集模块与数据采集模块之间左右对称设置,且均与垂直于地面且与所述支架相交的平面成第一预设角度设置;灯源阵列组模块用于在被测对象皮肤表面的各个区域均产生镜面反射光;处理终端用于接收从数据采集模块传输的与几何参数和反射参数测量相关的数据,并进行处理和重构被测对象,可构造有利于提高人脸识别率的人脸数据库。

    一种现实环境动态光照的实时计算方法

    公开(公告)号:CN110458964B

    公开(公告)日:2021-07-27

    申请号:CN201910774608.2

    申请日:2019-08-21

    Abstract: 本发明公开了一种现实环境动态光照的实时计算方法,涉及增强现实技术领域,本发明包括利用不少于两个相机分别从不同角度拍摄镜面球,调节各相机曝光度,得到不同曝光度的图片,根据图片生成高动态范围HDR图片序列;检测高动态范围HDR图片序列中的共同特征点,依据共同特征点对高动态范围HDR图片序列进行匹配,合成最初环境光照图;识别各图中光照的图像区域,在最初环境光照图上标记;将相机曝光度设置为一个特定值,对镜面球实时拍摄,得到实时LDR图;根据实时LDR图、最初环境光照图和高动态范围HDR图片序列,计算现实场景中的实时光照数据和环境光照数据,最终得到动态变化的光照信息,本发明可实时渲染虚拟场景中的物体,使AR应用视觉效果更逼真。

    一种三维人脸表示方法及其参数测量装置及方法

    公开(公告)号:CN112687009A

    公开(公告)日:2021-04-20

    申请号:CN202011601169.4

    申请日:2020-12-29

    Applicant: 四川大学

    Abstract: 本申请提供一种三维人脸表示方法及其参数测量装置及方法,装置包括:数据采集模块集、灯源阵列组模块、支架和处理终端,数据采集模块集与处理终端连接,灯源阵列组模块设置在支架上;数据采集模块组用于测量重建被测对象人脸几何参数与皮肤表面的反射参数,数据采集模块组包括一对数据采集模块,数据采集模块与数据采集模块之间左右对称设置,且均与垂直于地面且与所述支架相交的平面成第一预设角度设置;灯源阵列组模块用于在被测对象皮肤表面的各个区域均产生镜面反射光;处理终端用于接收从数据采集模块传输的与几何参数和反射参数测量相关的数据,并进行处理和重构被测对象,可构造有利于提高人脸识别率的人脸数据库。

    一种场景动态光照实时采集方法及装置

    公开(公告)号:CN110493540A

    公开(公告)日:2019-11-22

    申请号:CN201910775497.7

    申请日:2019-08-21

    Abstract: 本发明公开了一种场景动态光照实时采集方法及装置,涉及混合现实和增强现实技术领域,本发明包括调节竖直支架的长度,调节连接镜面球的竖直支架与各相机竖直支架的横杆的长度,使镜面球整体清晰呈现在所有相机的拍摄画面中;利用各相机对镜面球进行拍摄,并调节相机曝光度,得到各相机不同曝光度的图片;将各相机曝光度设置为一个特定的曝光度值,对镜面球进行在线实时拍摄,得到实时LDR图;将图片和实时LDR图传输至数据处理终端,通过数据处理终端对各图片和实时LDR图进行处理分析,解析得到场景动态光照信息,本发明实现了对场景光照的动态实时捕获,使得用捕获的光照绘制虚拟物体,将虚拟物体融入真实场景以获得具备较高真实感的虚实融合效果。

Patent Agency Ranking