-
公开(公告)号:CN110210608B
公开(公告)日:2021-03-26
申请号:CN201910483957.9
申请日:2019-06-05
Applicant: 国家广播电视总局广播电视科学研究院 , 北京邮电大学
Abstract: 本发明涉及一种基于注意力机制和多层次特征融合的低照度图像增强方法,包括以下步骤:在输入端对低照度图像进行处理,输出四通道特征图;使用基于注意力机制的卷积层作为特征提取模块,用于提取基础特征作为低层特征;将低层特征与相应的高层特征和卷积层最深层次的特征融合,经过反卷积层后,获得最终特征图;输出映射将最终的特征图还原成RGB图片。本发明充分利用了深度卷积神经网络模型的多层次特征,将不同层次特征融合,并通过通道注意力机制,给予特征通道不同的权重,获得了更优的特征表示,提高了图像处理的准确率,获取了高质量图像,可广泛用于计算机低层次视觉任务技术领域。
-
公开(公告)号:CN110210608A
公开(公告)日:2019-09-06
申请号:CN201910483957.9
申请日:2019-06-05
Applicant: 国家广播电视总局广播电视科学研究院 , 北京邮电大学
Abstract: 本发明涉及一种基于注意力机制和多层次特征融合的低照度图像增强方法,包括以下步骤:在输入端对低照度图像进行处理,输出四通道特征图;使用基于注意力机制的卷积层作为特征提取模块,用于提取基础特征作为低层特征;将低层特征与相应的高层特征和卷积层最深层次的特征融合,经过反卷积层后,获得最终特征图;输出映射将最终的特征图还原成RGB图片。本发明充分利用了深度卷积神经网络模型的多层次特征,将不同层次特征融合,并通过通道注意力机制,给予特征通道不同的权重,获得了更优的特征表示,提高了图像处理的准确率,获取了高质量图像,可广泛用于计算机低层次视觉任务技术领域。
-
公开(公告)号:CN115474072A
公开(公告)日:2022-12-13
申请号:CN202211417449.9
申请日:2022-11-14
Applicant: 国家广播电视总局广播电视科学研究院 , 中国广播电视网络集团有限公司 , 东方有线网络有限公司
IPC: H04N21/2187 , H04N21/234 , H04N21/239 , H04N21/466
Abstract: 本申请实施例提供了面向多个终端设备的内容协同分发处理方法、装置及设备,该方法包括:接收视频播放请求;响应于所述视频播放请求,向第一终端设备提供目标视频;在第一终端设备播放所述目标视频的过程中,向第二终端设备提供目标关联内容,所述目标关联内容为与所述目标视频存在关联关系的内容。
-
公开(公告)号:CN109886871B
公开(公告)日:2023-04-07
申请号:CN201910014480.X
申请日:2019-01-07
Applicant: 国家新闻出版广电总局广播科学研究院 , 北京邮电大学
IPC: G06T3/40
Abstract: 本发明涉及一种基于通道注意力机制和多层特征融合的图像超分辨率方法,在残差支路开头,使用基于深度学习的单层卷积层直接提取低分辨率图像的原始特征;使用六个级联的基于通道注意力机制和多层特征融合的卷积循环单元来提取精确的深度特征;通过反卷积层对深度特征进行上采样,并且使用单层卷积层对上采样的特征进行降维,得到高分辨率图像的残差;在映射支路,使用双三次插值方法对低分辨图像进行上采样,得到高分辨率图像的映射;将高分辨率图像的映射和残差逐像素相加得到最终的高分辨率图像。本发明设计合理,充分考虑了特征通道间的差异性,高效地利用了层次化的特征,在取得较高准确率的同时,保持了较快的运行速度。
-
公开(公告)号:CN109886871A
公开(公告)日:2019-06-14
申请号:CN201910014480.X
申请日:2019-01-07
Applicant: 国家新闻出版广电总局广播科学研究院 , 北京邮电大学
IPC: G06T3/40
Abstract: 本发明涉及一种基于通道注意力机制和多层特征融合的图像超分辨率方法,在残差支路开头,使用基于深度学习的单层卷积层直接提取低分辨率图像的原始特征;使用六个级联的基于通道注意力机制和多层特征融合的卷积循环单元来提取精确的深度特征;通过反卷积层对深度特征进行上采样,并且使用单层卷积层对上采样的特征进行降维,得到高分辨率图像的残差;在映射支路,使用双三次插值方法对低分辨图像进行上采样,得到高分辨率图像的映射;将高分辨率图像的映射和残差逐像素相加得到最终的高分辨率图像。本发明设计合理,充分考虑了特征通道间的差异性,高效地利用了层次化的特征,在取得较高准确率的同时,保持了较快的运行速度。
-
公开(公告)号:CN109190752B
公开(公告)日:2021-07-23
申请号:CN201810841610.2
申请日:2018-07-27
Applicant: 国家新闻出版广电总局广播科学研究院 , 北京邮电大学
Abstract: 本发明涉及一种基于深度学习的全局特征和局部特征的图像语义分割方法,包括以下步骤:在编码端,使用基于深度学习卷积神经网络模型提取图像的基础深度特征,同时根据卷积层的深度将特征分为低层特征和高层特征;应用特征融合模块将低层特征和高层特征融合成增强型的深度特征;在获取深度特征后,将其输入到解码端;以交叉熵损失函数为目标训练网络,使用mIoU评价网络性能。本发明设计合理,其使用深度卷积神经网络模型提取图像的全局和局部特征,充分利用了全局特征和局部特征的互补性,并且利用了堆叠池化层进一步提高性能,有效地提高了图像语义分割地准确率。
-
公开(公告)号:CN103634601B
公开(公告)日:2017-01-18
申请号:CN201310632139.3
申请日:2013-12-02
Applicant: 国家广播电影电视总局广播科学研究院 , 北京邮电大学
IPC: H04N19/147
Abstract: 一种基于结构相似度的高效视频编码感知码率控制优化方法,包括以下步骤:在进行最大编码单元级的码率分配时,利用结构相似度作为图像失真的评价标准计算图像最大编码单元的失真,并利用其代替高效视频编码器编码端码率分配中的图像失真来计算码率控制R-λ模型中最大编码单元级码率分配的权重;在进行模式判决前,利用结构相似度作为图像失真的评价标准计算图像失真,并用其替代高效视频编码器编码端率失真判决中的编码图像的失真。本发明设计合理,使码率分配更加高效、准确,同时在相同码率情况下提高了编码图像的感知视觉质量;在目标码率相同的情况下能提高视频主观质量,或在相同的结构相似度情况下平均能实现12%的码率减少。
-
公开(公告)号:CN109190752A
公开(公告)日:2019-01-11
申请号:CN201810841610.2
申请日:2018-07-27
Applicant: 国家新闻出版广电总局广播科学研究院 , 北京邮电大学
Abstract: 本发明涉及一种基于深度学习的全局特征和局部特征的图像语义分割方法,包括以下步骤:在编码端,使用基于深度学习卷积神经网络模型提取图像的基础深度特征,同时根据卷积层的深度将特征分为低层特征和高层特征;应用特征融合模块将低层特征和高层特征融合成增强型的深度特征;在获取深度特征后,将其输入到解码端;以交叉熵损失函数为目标训练网络,使用mIoU评价网络性能。本发明设计合理,其使用深度卷积神经网络模型提取图像的全局和局部特征,充分利用了全局特征和局部特征的互补性,并且利用了堆叠池化层进一步提高性能,有效地提高了图像语义分割地准确率。
-
公开(公告)号:CN108960142B
公开(公告)日:2021-04-27
申请号:CN201810721744.0
申请日:2018-07-04
Applicant: 国家新闻出版广电总局广播科学研究院 , 北京邮电大学
Abstract: 本发明涉及一种基于全局特征损失函数的行人再识别方法,将全部输入图像分成所有可能图像对,包括表示同一人的同类对和表示不同人的异类对;计算所有可能图像对之间的特征距离,从两类图像对之间的特征距离中分别统计形成全局的距离均值和方差;构建全局特征损失函数并使用该全局特征损失函数在学习过程中减小两个方差以及增大两个均值之间的差;将全局特征损失函数与分类损失函数和验证损失函数联合使用,共同增强特征的学习。本发明设计合理,充分利用了输入全体图像中相比于单张图像更为丰富的信息,使得特征的描述能力性能远远高于单纯的单张图片特征,使得系统整体匹配率大大提高。
-
公开(公告)号:CN108960142A
公开(公告)日:2018-12-07
申请号:CN201810721744.0
申请日:2018-07-04
Applicant: 国家新闻出版广电总局广播科学研究院 , 北京邮电大学
CPC classification number: G06K9/00369 , G06K9/00778 , G06K9/66
Abstract: 本发明涉及一种基于全局特征损失函数的行人再识别方法,将全部输入图像分成所有可能图像对,包括表示同一人的同类对和表示不同人的异类对;计算所有可能图像对之间的特征距离,从两类图像对之间的特征距离中分别统计形成全局的距离均值和方差;构建全局特征损失函数并使用该全局特征损失函数在学习过程中减小两个方差以及增大两个均值之间的差;将全局特征损失函数与分类损失函数和验证损失函数联合使用,共同增强特征的学习。本发明设计合理,充分利用了输入全体图像中相比于单张图像更为丰富的信息,使得特征的描述能力性能远远高于单纯的单张图片特征,使得系统整体匹配率大大提高。
-
-
-
-
-
-
-
-
-