近眼显示设备的控制方法、装置、设备及存储介质

    公开(公告)号:CN118474332A

    公开(公告)日:2024-08-09

    申请号:CN202410432982.5

    申请日:2024-04-10

    摘要: 本申请涉及近眼显示技术领域,提供一种近眼显示设备的控制方法、装置、设备及存储介质,近眼显示设备的控制方法包括:获取近眼显示设备的当前位姿信息;根据当前位姿信息以及预设场景地图,确定近眼显示设备在预设场景地图中的目标位姿信息;当在预设场景地图中,确定目标位姿信息对应的预设视角范围存在遮挡物时,根据目标位姿信息以及预设场景地图,确定被遮挡物遮挡的目标对象;通过近眼显示设备的显示器显示目标对象,以提升近眼显示设备的穿墙透视便捷性以及穿墙透视效果。

    一种图像处理方法及电子设备
    2.
    发明公开

    公开(公告)号:CN117793328A

    公开(公告)日:2024-03-29

    申请号:CN202410131204.2

    申请日:2024-01-30

    发明人: 马焱

    摘要: 本申请实施例提供了一种图像处理方法及电子设备,所述图像处理方法包括:确定用户左眼及右眼的视场角,以及用户与屏幕间的距离;基于所述用户左眼及右眼的视场角及用户与所述屏幕间的距离确定所述目标摄像头在所述屏幕上的采样范围、对应用户左眼在屏幕上的第一视场范围及对应用户右眼在屏幕上的第二视场范围,所述采样范围覆盖第一视场范围和第二视场范围;获得所述目标摄像头在所述采样范围内采集得到的第一图像;渲染所述第一图像得到第一渲染图像;基于所述第一视场范围和第二视场范围对所述第一渲染图像进行内容提取,以得到对应第一视场范围的第二渲染图像,和对应第二视场范围的第三渲染图像。

    一种零延时无线图传OSD叠加显示算法

    公开(公告)号:CN117528049A

    公开(公告)日:2024-02-06

    申请号:CN202311547305.X

    申请日:2023-11-20

    摘要: 本发明针对软件实现无线图传叠加OSD会引起较大的时延、硬件实现OSD叠加不能满足多样化界面的一系列问题,提出了一种零延时无线图传OSD叠加显示算法,该方法主要包括如下步骤:视频格式自动识别;视频色彩空间转换;视频上/下采样;无线接收视频和OSD视频同步;识别并提取OSD数据;接收视频上叠加OSD界面。本发明主要是利用软件实现满足需求的精美OSD界面,然后通过一个FPGA对OSD数据和无线接收机接收的视频图像进行处理和叠加,最后显示输出,该发明在保证零延时输出叠加了千变万化的OSD视频图像的前提下,算法实现简单、硬件使用的资源也较少。

    深度摄像头、深度图像采集装置和多传感器融合系统

    公开(公告)号:CN116847059A

    公开(公告)日:2023-10-03

    申请号:CN202210302614.X

    申请日:2022-03-24

    发明人: 包鼎华

    摘要: 本公开是关于一种深度摄像头、深度图像采集装置和多传感器融合系统。深度摄像头包括:深度镜头,所述深度镜头用于生成触发信号,所述触发信号用于指示所述深度镜头执行第一曝光操作,以获取第一图像信息;RGB镜头,所述RGB镜头与所述深度镜头通信连接以接收所述触发信号,所述触发信号用于指示所述RGB镜头执行第二曝光操作,以获取第二图像信息;处理器,所述处理器与所述深度镜头和所述RGB镜头分别通信连接,以接收所述触发信号、所述第一图像信息和所述第二图像信息,所述处理器根据所述接收到所述触发信号的本地时间,记录所述第一图像信息和所述第二图像信息的时间戳。

    立体影像产生装置与立体影像产生方法

    公开(公告)号:CN116708736A

    公开(公告)日:2023-09-05

    申请号:CN202210177413.1

    申请日:2022-02-25

    摘要: 提供一种立体影像产生装置,处理:取得第1影像的第1深度信息图,第1深度信息图的每一像素点具有对应的深度信息;以第1深度信息图的复数个边缘为基准,距离复数个边缘既定宽度以内的复数个边缘像素点为对象,进行一致化处理,使得处理后的复数个边缘像素点具有相同的深度信息,以建立第2深度信息图;基于第2深度信息图的每一像素点对应的深度信息,来设定第1影像的每一像素点对应的像素偏移量;对第1影像进行像素偏移处理,以产生第2影像;显示立体影像的第1影像以及第2影像。本公开还涉及一种立体影像产生方法。

    融合制播系统及方法
    7.
    发明公开

    公开(公告)号:CN114885147A

    公开(公告)日:2022-08-09

    申请号:CN202210812015.2

    申请日:2022-07-12

    摘要: 本申请实施例提供一种融合制播系统及方法,包括:摄像机跟踪模块获取多个摄像机的位置参数和工作参数;显示渲染模块根据摄像机的位置参数和工作参数确定多个数字场景之间的立体透视关系,根据立体透视关系和数字场景得到三维虚拟场景,将三维虚拟场景发送至显示屏进行呈现;运动捕捉模块获取摄像机录制的视频,基于AI人体运动跟踪技术得到视频中人体的运动参数以进行制作,其中,视频基于显示屏呈现的三维虚拟场景和真实场景融合得到。本申请实施例通过摄像机跟踪模块获取多个摄像机的位置参数,方便多机位协同及切换匹配,采用AI智能动捕技术实现一套系统内多套摄像机同步跟踪及身体动作跟踪,无需佩戴额外的穿戴动作捕捉设备。

    一种基于隐式神经场景表示进行虚拟视点图像合成的方法

    公开(公告)号:CN114666564A

    公开(公告)日:2022-06-24

    申请号:CN202210288938.2

    申请日:2022-03-23

    发明人: 霍智勇 郭权

    摘要: 本发明公开了一种在多视图立体跨视图损失的基础上利用隐式神经场景表示进行虚拟视点图像合成的方法,适用于计算机视觉领域。本方法包括:获取需产生虚拟视点的图像数据集;对训练图像数据集进行预处理,在预处理阶段基于特征匹配算法Sift对输入的训练图像数据集进行特征点提取和匹配;将获得的训练图像数据和所提取特征点信息经处理后输入多层感知器网络中进行训练;将测试图像数据输入训练好的多层感知器网络,后通过体渲染得到测试的渲染图像;基于训练好的多层感知器网络生成虚拟视点图像。由此通过减少神经网络在训练拟合场景表示时的数据量,及结合图像深度信息进行集中采样,能提高神经场景表示的运算速度与性能,生成高质量虚拟视点图像。

    利用鱼眼相机获取三维场景图像的方法和装置、设备和介质

    公开(公告)号:CN113132708B

    公开(公告)日:2022-02-22

    申请号:CN202110438633.0

    申请日:2021-04-22

    摘要: 本公开提供了利用鱼眼相机获取三维场景图像的方法和装置、设备和介质,该方法包括:利用鱼眼相机采集目标场景的视频图像;基于目标场景的三维空间模型中的各顶点的三维坐标与对应的二维坐标之间的对应关系,将视频图像贴合到三维空间模型中,得到目标场景的三维场景效果图,顶点的三维坐标为顶点在三维空间模型对应的三维坐标系中的空间位置坐标,二维坐标为顶点对应的映射点在鱼眼相机对应的球坐标系的横切面上的投影点的坐标;球坐标系以鱼眼相机为球心、基于鱼眼相机的内参和外参构建得到;横切面为通过球坐标系的中心点、且与鱼眼相机的拍摄正方向垂直的平面。本公开可以降低图像采集成本,提高3D场景的成像效果,满足视频流的实时性需求。