-
公开(公告)号:CN105554506B
公开(公告)日:2018-05-29
申请号:CN201610035874.X
申请日:2016-01-19
Applicant: 北京大学深圳研究生院
IPC: H04N19/503 , H04N19/176 , H04N19/137 , H04N19/13
Abstract: 一种基于多方式边界填充的全景视频编码、解码方法和装置,在通过帧间预测得到当前图像块的预测图像块时,帧间预测包括边界填充步骤,边界填充步骤为:当前图像块中像素的参考样本在相应的参考图像的边界之外时,根据参考样本的坐标自适应选择边界填充方式,以求得参考样本的样本值。本申请提供的基于多方式边界填充的全景视频编码、解码方法和装置中,充分利用了全景视频中,水平方向图像内容是循环相连的这一特性,优化图像边界填充方法,使得在编码端能够根据参考样本的坐标自适应选择更合理的边界填充方式,以达到提升压缩效率的目的。
-
公开(公告)号:CN105224288B
公开(公告)日:2018-01-23
申请号:CN201410302221.4
申请日:2014-06-27
Applicant: 北京大学深圳研究生院
CPC classification number: G06T15/04
Abstract: 本发明涉及双目三维图形渲染方法及相关系统。方法包括投影变换步骤,所述投影变换步骤包括:在近平面和远平面之间增加中平面作为投影面,将近平面与远平面之间的图元投影到中平面上。本发明通过增加的中平面,将近平面与远平面之间的图元投影到中平面上,则近平面与中平面之间的图元会有出屏的立体效果,中平面与远平面之间的图元会有入屏的立体效果;从而,使得在3D显示设备中使用现有的渲染管线时不需要特别的硬件,就可以渲染“出屏”和“入屏”效果。
-
公开(公告)号:CN107330100A
公开(公告)日:2017-11-07
申请号:CN201710545632.X
申请日:2017-07-06
Applicant: 北京大学深圳研究生院
Abstract: 本发明公布了一种基于多视图联合嵌入空间的图像-文本双向检索方法,通过结合全局层面和局部层面的语义关联关系进行检索;先从画面-句子视图和区域-短语视图下分别获得全局和局部层面的语义关联关系,在画面-句子视图中获取画面和句子全局层面子空间中的语义关联信息;在区域-短语视图中获取区域和短语局部层面子空间中的语义关联信息;两个视图中均通过双分支的神经网络处理数据得到同构特征嵌入共同空间,在训练中使用约束条件保留数据原有的语义关系;再通过多视图融合排序方法融合两种语义关联关系得到数据之间更精准的语义相似度,使得检索结果准确度更高。
-
公开(公告)号:CN104408710B
公开(公告)日:2017-05-24
申请号:CN201410604055.3
申请日:2014-10-30
Applicant: 北京大学深圳研究生院
IPC: G06T7/38
Abstract: 一种全局视差估计方法和系统,在进行匹配空间计算时,根据预设规则在图像上选取采样点,再根据约束条件进行第一匹配空间和第二匹配空间的计算。其中,采用的约束条件包括线性约束条件和基于采样点的空间线束条件,所述线性约束条件为当前像素点与搜索点之间在颜色上的欧氏距离的约束,所述空间约束条件为搜索点与采样点之间在颜色上的欧氏距离的约束,由于同时采用了上述两个约束条件,使得计算出的匹配空间更加接近图像中物体的边缘,因此,能够提高匹配空间计算的准确性,从而保证最终视差计算的准确度。
-
公开(公告)号:CN106454360A
公开(公告)日:2017-02-22
申请号:CN201610948219.3
申请日:2016-10-26
Applicant: 北京大学深圳研究生院
IPC: H04N19/176 , H04N19/11 , H04N19/91
CPC classification number: H04N19/11 , H04N19/176 , H04N19/91
Abstract: 本发明公布了一种在视频编码领域的I帧编码中率失真优化模块的快速码率估计方法,通过对预测块的残差信息进行建模,并在相应模型下根据信息熵理论估计出预测块的编码比特数,从而可以在RDO过程中跳过熵编码过程,包括:统计预测块分布信息并建模得到混合模型、根据模型估计预测模式的编码比特数、并对估计的编码比特数做出修正,用以估算RDO过程中每种预测模式的编码码率,以替代真实熵编码过程的巨大的时间复杂度,在视频质量损失较少的情况下有效地减少编码时间。本发明适用于视频编码中I帧的码率估计。
-
公开(公告)号:CN106131547A
公开(公告)日:2016-11-16
申请号:CN201610548047.0
申请日:2016-07-12
Applicant: 北京大学深圳研究生院
IPC: H04N19/11 , H04N19/593 , H04N19/147 , H04N19/136 , H04N19/176
CPC classification number: H04N19/11 , H04N19/593 , H04N19/136 , H04N19/147 , H04N19/176
Abstract: 本发明公布了一种视频编码中帧内预测模式的快速决策方法,通过判断预测方位,利用角度模式的相关性和PU尺寸构造PML,减少进行率失真优化的预测模式数目;包括:对主要预测方位集中的方位进行预测,选取率失真代价最优的前三个模式;将其相邻方向及Planar、DC模式加入PML中;计算PML中模式的率失真代价;将MPM中的模式无重复地添加入PML中;进行最后的率失真优化;将率失真代价最小的模式作为当前PU块的帧内预测的最优模式。本发明能够降低帧内预测的运算复杂度,提高视频编码速度。
-
公开(公告)号:CN105976332A
公开(公告)日:2016-09-28
申请号:CN201610284962.3
申请日:2016-05-03
Applicant: 北京大学深圳研究生院
IPC: G06T5/00
CPC classification number: G06T5/00 , G06T5/003 , G06T2207/20021
Abstract: 本发明公布了一种基于图像中亮条纹信息的图像去模糊方法,利用运动模糊图像中存在的亮条纹,得到模糊核的形状信息,通过结合图像和所述模糊核对图像复原进行约束,得到准确的模糊核和高质量的复原图像;具体包括:选取包含最优亮条纹的最优图像块;提取得到模糊核形状信息;进行模糊核估计,得到最终的模糊核;进行非盲反卷积,还原得到清晰复原图像,作为最终的去模糊图像。本发明建立了一个实际拍摄的包含亮条纹的模糊图像测试集,采用本发明技术方案,能够得到准确的模糊核和高质量的复原图像,在图像处理领域应用价值高。
-
公开(公告)号:CN105809197A
公开(公告)日:2016-07-27
申请号:CN201610135651.0
申请日:2016-03-10
Applicant: 北京大学深圳研究生院
IPC: G06K9/62
CPC classification number: G06K9/6201 , G06K9/629
Abstract: 一种基于MCMC框架下的子超图匹配方法和装置,提出通过构建子超图的方式进行物体特征的匹配。由于在大量的真实图片、视频中,物体都是不断变换,包含各种噪点,以及其他一些干扰因素的,以至于图像物体匹配检索变得非常困难,而通过子超图来表现物体的外观以及位置信息来进行物体特征匹配,就能更高速、更准确地实现图像的正确匹配。并且,子超图比图、超图更有优势。一方面,子超图比图具有更多的几何信息(例如,角度变换,旋转,尺度等),比超图的具有更低的难度,具有更好的延展性。另一方面,该方法和装置具有较强的抗干扰能力,鲁棒性好,能适应较复杂的场景,尤其是针对异常值。
-
公开(公告)号:CN105704498A
公开(公告)日:2016-06-22
申请号:CN201610153125.7
申请日:2016-03-17
Applicant: 北京大学深圳研究生院
IPC: H04N19/625 , H04N19/61
CPC classification number: H04N19/625 , H04N19/61
Abstract: 本申请公开了一种逆离散余弦变换的方法及装置、视频编/解码方法及框架,在反量化扫描系数的过程中记录变换块中非零系数的位置,根据非零系数的位置,判断所述变换块的非零系数分布模式,选择与所述变换块的非零系数分布模式相对应的逆离散余弦变换函数,并根据该函数执行逆离散余弦变换,本发明的技术方案由于不用对零系数进行计算,使得算法的整体速度得到提高;由于在反量化扫描系数的过程中就记录非零系数的位置,降低了算法的复杂度。
-
公开(公告)号:CN105224288A
公开(公告)日:2016-01-06
申请号:CN201410302221.4
申请日:2014-06-27
Applicant: 北京大学深圳研究生院
CPC classification number: G06T15/04
Abstract: 本发明涉及双目三维图形渲染方法及相关系统。方法包括投影变换步骤,所述投影变换步骤包括:在近平面和远平面之间增加中平面作为投影面,将近平面与远平面之间的图元投影到中平面上。本发明通过增加的中平面,将近平面与远平面之间的图元投影到中平面上,则近平面与中平面之间的图元会有出屏的立体效果,中平面与远平面之间的图元会有入屏的立体效果;从而,使得在3D显示设备中使用现有的渲染管线时不需要特别的硬件,就可以渲染“出屏”和“入屏”效果。
-
-
-
-
-
-
-
-
-