-
公开(公告)号:CN106791835A
公开(公告)日:2017-05-31
申请号:CN201710117803.9
申请日:2017-03-01
Applicant: 北京大学
IPC: H04N19/105 , H04N19/147 , H04N19/517 , H04N19/159 , H04N19/577 , H04N19/154
Abstract: 本发明公开一种参考图像管理方法,该方法通过构建,移入,删除等操作管理视间参考图像队列的方法,并通过CU(coding unit)层的标识符来进行编码,从而与时域参考帧管理相结合形成一套完整的参考帧管理方法。其具体包括对依赖视点的编码,新增一个视间参考图像队列,单独管理视间参考图像,而不是在原本时域参考帧队列中替换某些时域参考帧的方式。对于视间参考标识符的标记是以CU为单位,视间参考模式对应的语法元素进行编码到码流。该方法的优势在于既不改变原来时域参考帧的管理方式,又有利于视间参考帧从一帧到多帧的扩展。通过该方法,可以大幅度提高依赖视点的编码性能。
-
公开(公告)号:CN103856780B
公开(公告)日:2017-03-08
申请号:CN201210519807.7
申请日:2012-12-06
Applicant: 北京大学
IPC: H04N19/593
Abstract: 本发明提供一种视频编码方法、解码方法、编码器及解码器。该视频编码方法包括:接收视频文件的原始YUV序列;对原始YUV序列中像素的位置进行坐标转换处理,得到目标YUV序列和坐标转换参数;其中,坐标转换参数包括用于标识对原始YUV序列中像素的位置进行坐标转换处理使用的目标坐标转换方法的坐标转换标志位和目标坐标转换方法对应的目标坐标转换规则;对目标YUV序列和坐标转换参数进行编码,得到编码比特流。本发明通过对视频文件的原始YUV序列中的像素进行坐标转换处理,使得到的目标YUV在时域或空域的相关性更强,可以减小预测残差,提高了编码性能。
-
公开(公告)号:CN106331703A
公开(公告)日:2017-01-11
申请号:CN201510391858.X
申请日:2015-07-03
IPC: H04N19/136 , H04N19/105 , H04N19/567 , H04N19/533 , H04N19/513
Abstract: 本发明实施例公开了一种视频编码和解码方法、视频编码和解码装置。本发明实施例方法包括:获取当前图像,根据所述当前图像获取所述当前图像的运动矢量精度,所述运动矢量精度包括搜索步长集合,所述搜索步长集合中的各搜索步长小于一个像素单位;获取当前块以及所述当前块的参考图像;确定所述参考图像中的搜索起点,从所述搜索起点开始以一个像素单位为搜索步长搜索目标整像素点;根据所述运动矢量精度从所述目标整像素点开始搜索所述当前块的匹配块;获取运动矢量信息和预测残差信号,将所述参考图像的信息、所述运动矢量信息以及所述预测残差信号写入码流,所述参考图像的信息用于指示所述参考图像。本发明实施例能够结合视频特性进行编码和解码。
-
公开(公告)号:CN102984523B
公开(公告)日:2015-12-09
申请号:CN201210546537.9
申请日:2012-12-14
Applicant: 北京大学
IPC: H04N19/593 , H04N19/157
Abstract: 本发明公开了一种帧内预测编解码方法及装置,该方法包括以下步骤:编码端,对于输入的一个帧内预测单元,根据设定的帧内预测方向,选择为执行该方向的帧内预测所需的参考像素;使用所述参考像素对所述的预测单元,按设定的预测方向进行预测,得到预测单元的像素预测值,所述的像素预测值由所选取的参考像素进行滤波得到;遍历所有的预测方向,对最优的预测方向进行熵编码。解码端,解析帧内预测模式,采用和编码端相同的帧内预测方法得到帧内预测值。
-
公开(公告)号:CN104769947A
公开(公告)日:2015-07-08
申请号:CN201380003162.4
申请日:2013-07-26
Applicant: 北京大学深圳研究生院
IPC: H04N19/51 , H04N19/573
CPC classification number: H04N19/52 , H04N19/105 , H04N19/139 , H04N19/176 , H04N19/43 , H04N19/56
Abstract: 一种基于P帧的多假设运动补偿编码方法,以当前图像块的相邻已编码图像块作为参考图像块,获得每一块参考图像块对应的第一运动矢量,再参考第一运动矢量通过联合运动估计的方式获得相应的第二运动矢量,并以编码代价最小的第一运动矢量、第二运动矢量和最终预测块作为当前图像块最终的第一运动矢量、第二运动矢量和最终预测块,使得获得的当前图像块的最终预测块具有更高的准确性,且不会增大传输码流的码率。
-
公开(公告)号:CN104702957A
公开(公告)日:2015-06-10
申请号:CN201510091702.X
申请日:2015-02-28
Applicant: 北京大学
IPC: H04N19/523 , H04N19/53 , H04N19/567
Abstract: 本发明公开了一种运动矢量的压缩方法和装置,以解决现有技术中对运动矢量压缩编码时间耗时长、性能局限的问题。所述方法包括搜索运动矢量的像素精度区域,对所述运动矢量按照两个不同的像素精度区域进行搜索;对第一区域的MV采用第一表示法进行表示,对第二区域的MV采用第二表示法进行表示。本发明通过在运动搜索的过程中对所述运动矢量按照不同像素精度区域的方式进行分区搜索,对低像素精度区域的部分像素进行舍弃,而后对不同像素精度区域的MV进行适当的转换并采用不同的表示方法进行表示,从而达到压缩运动矢量的目的,对压缩后的运动矢量进行编码,减少了码流,优化了运动估计性能,提高了运动估计速度,实现编码性能的增益。
-
公开(公告)号:CN104661035A
公开(公告)日:2015-05-27
申请号:CN201510073614.7
申请日:2015-02-11
Applicant: 北京大学
IPC: H04N19/61 , H04N19/13 , H04N19/124
Abstract: 本发明公开了一种视频局部特征描述子的压缩方法、系统和视频压缩方法,所述视频局部特征描述子的压缩方法包括联合视频内容的帧间预测、量化、熵编码,而后计算预测信号的残差系数,对残差系数进行量化得到量化系数,再对量化系数进行熵编码,输出熵编码后形成的码流,完成对视频的局部特征描述子的压缩。通过本发明对视频局部特征描述子进行压缩,在联合视频内容的基础上,使压缩后的视频数据得到紧凑的表示,达到高的压缩比,从而提高视频数据的传输速率、存储效率及压缩效率,同时提高了视频数据的检索效率。
-
公开(公告)号:CN103220549B
公开(公告)日:2015-04-22
申请号:CN201310181878.5
申请日:2013-05-16
Applicant: 北京大学
IPC: H04N17/00
Abstract: 本发明公开了一种视频发生器及系统,该发生器包括格式转换子模块、缓存池、协同调度模块、多级控制指针、缓存窗、时钟锁、播控输出模块。所述格式转换子模块用于对输入视频格式进行转换,并将转换后的视频输出到缓存池;缓存池用于码流数据的缓存,在缓存池中为码流分配指定数量的多级控制指针,并为每级控制指针开辟一个缓冲窗,缓冲窗输出连接播控输出模块;播控输出模块用于输出同源异步码流;时钟锁输出连接播控输出模块,用于通过播控输出模块的码流帧率设定系统时钟周期,并控制系统的输入输出操作;协同调度模块用于控制格式转换子模块、多级控制指针和时钟锁,缓存池和缓存窗的状态反馈至协同调度模块。视频发生器及系统可用于改进视频编码器主观测试的准确性和客观性,提高测试效率。
-
公开(公告)号:CN104488271A
公开(公告)日:2015-04-01
申请号:CN201380003167.7
申请日:2013-07-26
Applicant: 北京大学深圳研究生院
IPC: H04N19/51
CPC classification number: H04N19/513 , H04N19/56 , H04N19/91
Abstract: 一种基于P帧的多假设运动补偿方法,包括:以当前图像块的相邻已编码图像块作为参考图像块,利用参考图像块的运动矢量获得当前图像块的第一运动矢量,所述第一运动矢量指向第一预测块;以所述第一运动矢量为参考值,对当前图像块进行联合运动估计获得当前图像块的第二运动矢量,所述第二运动矢量指向第二预测块;对所述第一预测块和所述第二预测块进行加权平均,获得当前图像块的最终预测块。该方法可以使当前图像块获得的预测块的准确性更高,且不会增大码流码率。
-
公开(公告)号:CN103248892A
公开(公告)日:2013-08-14
申请号:CN201310163626.X
申请日:2013-05-07
Applicant: 北京大学
Abstract: 本发明公开了一种帧内预测的方法及装置,该方法包括以下内容:根据帧内预测的方向和待预测像素的位置确定一条直线,将该线与已编码像素的交点A周围的像素选为参考像素,在参考像素的原始值上进行帧内预测,预测所采用的滤波器系数与A点距参考像素的距离相关。本发明通过设计一种合理的帧内预测方法,使得帧内预测的像素值更加接近于原始像素,解决了多方向帧内预测中采用简单的预测技术导致的预测不准确、熵编码冗余的问题,可以得到更准确的预测值,从而减小了预测的残差,提高了编码效率。
-
-
-
-
-
-
-
-
-