一种基于透镜阵列的近眼显示方法

    公开(公告)号:CN105739094A

    公开(公告)日:2016-07-06

    申请号:CN201410767747.X

    申请日:2014-12-11

    Abstract: 本发明涉及近眼显示技术领域,特别是涉及一种基于透镜阵列的近眼显示方法。本发明提供的一种基于透镜阵列的近眼显示方法,通过采用多个焦距相等的透镜组成透镜阵列,使显示器位于所述透镜阵列的焦平面处,所述显示器中的图像经过所述透镜阵列显示给用户。同时本发明还提供一种图像处理方法,根据透镜阵列对应的显示器的显示区域选取目标图像的显示子图,并将选取的所有显示子图拼接成一幅显示图像。通过上述近眼显示方法及图像处理方法能够突破单个透镜相对孔径条件的限制,实现减小近眼显示装置体积和减轻近眼显示装置重量的效果,提高人们头戴近眼显示装置的舒适度。

    一种相机架设云台及两视点采集装置

    公开(公告)号:CN105407284A

    公开(公告)日:2016-03-16

    申请号:CN201510849290.1

    申请日:2015-11-27

    Abstract: 本发明实施例公开了一种相机架设云台,包括相机安装台和支撑杆,所述支撑杆顶端球铰连接于所述相机安装台的底部,所述支撑杆的上部固定有一平板,所述平板上安装有四个均与所述支撑杆平行的升降杆,所述升降杆在升降过程中其顶端可选择地与所述相机安装台的下表面相接触或分离;四个所述升降杆在所述平板板面上的安装点的连线构成一四边形区域,所述支撑杆穿过所述平板上该四边形区域,该相机架设云台解决了现有技术中安装在相机架设云台上的相机很难被摆正的问题;本发明实施例还公开了一种两视点采集装置,其上包含两个上述相机架设云台,其可以通过调节使得该装置中的两个相机获得较高的对称性,进而使后期合成得到的3D显示图像更加清晰。

    一种三维模型实时绘制与比对方法

    公开(公告)号:CN104599320A

    公开(公告)日:2015-05-06

    申请号:CN201410856569.8

    申请日:2014-12-31

    CPC classification number: G06T17/05 G06T19/20

    Abstract: 本发明公开了一种三维模型实时绘制与对比方法,所述方法包括以下步骤:S1、建模软件的插件从建模软件中实时读取模型的节点数据;S2、将所述步骤S1中读取的数据,以节点的形式存入共享缓存区,所述节点以树形结构进行组织;S3、对比软件读取所述共享缓存区中节点的数据,并在地理空间中实时绘制初始三维模型;S4、将现实场景中照片放于三维地理信息空间中,与步骤S3中得到所述初始三维模型作对比,对所述初始模型进行修正后得到三维模型。本发明的方法实时读取模型数据,并通过人工修正构建三维模型,实现了根据实际场景实时绘制三维模型,并且使构建的三维模型与实际场景匹配。

    一种头戴三维显示装置

    公开(公告)号:CN104391376A

    公开(公告)日:2015-03-04

    申请号:CN201410779446.9

    申请日:2014-12-16

    CPC classification number: G02B27/0172

    Abstract: 本发明公开一种头戴三维显示装置,所述显示装置包括:背光源、显示器及镜片;所述背光源用于向所述显示器提供准平行光;所述显示器用于对所述背光源发出的准平行光进行调制并将调制后的光投射到所述镜片;所述镜片用于将所述调制后的光转变为平行光并将平行光投射到人眼。本发明的头戴三维显示装置通过单片非球面半反射镜片,实现单次反射增强现实效果并增大了视场角,本发明的头戴三维显示装置由于减少了额外的镜片,因此光学结构简单紧凑,提高了光能利用率与头戴显示器的便携性。

    自由视点图生成方法、装置、设备及存储介质

    公开(公告)号:CN114463408B

    公开(公告)日:2025-03-11

    申请号:CN202111564607.9

    申请日:2021-12-20

    Abstract: 本申请提供一种自由视点图生成方法、装置、设备及存储介质,该方法包括:通过特征提取网络结合多视点图的内外参数,提取多视点图的特征,以及结合无监督立体匹配网络得到最终目标视点深度图;通过卷积神经网络对多视点图进行特征提取,得到多视点图的多张待处理深度编码图;通过DIBR方法结合最终目标视点深度图将各张待处理深度编码图进行投影,得到多张目标深度编码图;通过预设聚合模块将各张目标深度编码图进行融合,得到目标视点编码图,以及通过全卷积网络对目标视点编码图进行解码,得到目标自由视点图。本申请实施例提供的自由视点图生成方法通过深度估计将多视点图生成虚拟的目标自由视点图,使得目标自由视点图具有高准确性。

    语音情绪识别模型的训练方法、识别方法和装置

    公开(公告)号:CN116486785A

    公开(公告)日:2023-07-25

    申请号:CN202310273039.X

    申请日:2023-03-20

    Abstract: 本申请提供一种语音情绪识别模型的训练方法、识别方法和装置,涉及语音识别技术领域。该方法包括:在训练语音情绪识别模型时,可以先获取多个语音样本对,各语音样本对包括具有语音情绪标签的第一语音样本和无语音情绪标签的第二语音样本,第一语音样本和第二语音样本所属的语种不同;将语音样本对对应的语音特征输入至初始语音情绪识别模型中,得到语音样本对中第一语音样本和第二语音样本对应的预测结果;根据各语音样本对对应的第一预测结果、第二预测结果以及语音情绪标签,对初始语音情绪识别模型的模型参数进行更新,这样训练得到的语音情绪识别模型,可以准确地识别不同语种的语音情绪,从而提高了识别结果的准确度。

    环形相机阵列的参数标定方法、装置、设备及存储介质

    公开(公告)号:CN116091621A

    公开(公告)日:2023-05-09

    申请号:CN202211741419.3

    申请日:2022-12-30

    Abstract: 本发明提供一种环形相机阵列的参数标定方法、装置、设备及存储介质,该方法包括:基于环形相机阵列中每个相机采集的待测物体在不同角度下对应的多帧第一图像,确定每个相机对应的相机内参;将环形相机阵列中的所有相机按序进行分组,得到多组相机,并基于每组相机中每个相机采集的待测物体在不同角度下对应的多帧第二图像,确定每组相机对应的初始相机外参;其中,每组相机包括多个相机,相邻两组相机中存在相同的相机;对多个初始相机外参进行联合优化处理,确定环形相机阵列对应的目标相机外参;根据相机内参及目标相机外参,确定环形相机阵列对应的联合标定参数结果。该方法能够对环形相机阵列对应的相机参数进行准确标定。

    一种三维模型渲染方法和装置
    48.
    发明公开

    公开(公告)号:CN115830202A

    公开(公告)日:2023-03-21

    申请号:CN202211494444.6

    申请日:2022-11-25

    Abstract: 本发明提供一种三维模型渲染方法,包括:S1、控制虚拟相机发出渲染光线,并确定出多个交点坐标;S2、基于虚拟相机的参数和多个交点坐标中的其中一个交点坐标,确定出虚拟相机发出的对应于其中一个交点坐标的一根渲染光线的方向向量;S3、基于每个RGB相机的坐标和所述其中一个交点坐标,确定出相机方向向量组;S4、基于一根渲染光线的方向向量和相机方向向量组的夹角关系,确定多个用于纹理计算的RGB相机;S5、基于多个RGB相机拍摄的多个图像,确定出其中一个交点坐标对应的纹理值;S6、继续执行S2‑S5步骤,直至分别确定出多个纹理值;S7、基于多个纹理值确定出虚拟相机对应的视点图像,从而实现三维模型的快速渲染。

    一种三维光场显示及模型训练方法、装置和存储介质

    公开(公告)号:CN113938668B

    公开(公告)日:2022-08-05

    申请号:CN202111042784.0

    申请日:2021-09-07

    Abstract: 本发明提供了一种三维光场显示方法、装置、设备及存储介质,所述方法包括:获取三维场景信息,并生成高分辨率基元图像阵列;将所述高分辨率基元图像阵列输入神经网络模型得到训练后的低分辨率基元图像阵列;将训练后的所述低分辨率基元图像阵列转换为携带完整三维光场信息的光场光线向微透镜阵列投射;微透镜阵列对经过的所述光场光线进行调整后,投射至定向扩散膜生成大视角三维光场图像;其中,生成所述大视角三维光场图像的视觉像素,包括所述光场光线以及所述光场光线在所述定向扩散膜上投射的漫射光斑的混叠区域。这样,在不增加系统复杂度和不增加额外设备的基础上,直接增加新的视觉像素,提高三维立体图像的分辨率。

    无监督特征点检测方法及装置

    公开(公告)号:CN113095333B

    公开(公告)日:2022-08-05

    申请号:CN202110214381.3

    申请日:2021-02-25

    Abstract: 本发明提供一种无监督特征点检测方法及装置,该方法包括:利用编码器网络对训练图像提取特征,得到K个通道的特征图,归一化后生成特征点位置概率分布图;对所述概率分布图求解质心后,基于所述质心对概率分布图进行高斯重构;将高斯重构后特征图,输入解码器网络得到输出图像,根据输入图像、输出图像、概率分布图和高斯重构后特征图,确定预设损失函数的损失值;根据多次训练结果,得到损失函数最小时的编码器网络;基于训练后的编码器网络,确定待检测图像的K个特征点位置。该方法无需手工标注特征点位置来进行有监督学习,可有效避免人工标注的人力成本和人工标注带来的主观错误,同时能够提高检测效率。

Patent Agency Ranking