一种基于公共语义空间学习构建图文知识图谱方法

    公开(公告)号:CN112818135A

    公开(公告)日:2021-05-18

    申请号:CN202110208342.2

    申请日:2021-02-24

    Abstract: 本发明公开了一种基于公共语义空间学习构建图文知识图谱方法,包括如下步骤:构建深度神经网络用于图像与文本数据的深度特征提取;将图像与文本数据对oi=(xi,li,yi)分别输入到深度神经网络中训练;其中oi表示第i对图像‑文本对数据以及对应的标签,xi,yi与li分别表示第i个图像数据、文本数据以及对应的标签数据;通过损失函数学习两种图像和文本数据间的公共语义表达,并将图像与文本特征转化到公共语义空间中;根据相似度度量,依据CN‑DBpedia的构建方法构建知识图谱。本发明提供的方法能有效实现图像、文本两种不同的模态间的知识图谱构建。

    基于多任务学习的H.266VVC屏幕内容帧内CU快速划分方法及装置

    公开(公告)号:CN117014610B

    公开(公告)日:2023-12-29

    申请号:CN202311280429.6

    申请日:2023-10-07

    Applicant: 华侨大学

    Abstract: 本发明公开了一种基于多任务学习的H.266VVC屏幕内容帧内CU快速划分方法及装置,涉及视频编码领域,该方法包括:获取屏幕内容视频,将128×128大小的CTU直接划分为64×64大小的CU;构建多任务学习网络模型,多任务学习网络模型包括主干网络、第一子网络和第二子网络,主干网络用于提取CU特征,将CU特征输入第一子网络和第二子网络,得到CU划分类型和编码模式,可结合编码模式及其预测概率和临近CU的划分类型综合确定预测结果;将64×64大小的CU输入经训练的多任务学习网络模型,得到第一预测结果;若第一预测结果为划分,则进一步划分为4个32×32大小的CU,并输入经训练的多任

    基于多任务学习的H.266VVC屏幕内容帧内CU快速划分方法及装置

    公开(公告)号:CN117014610A

    公开(公告)日:2023-11-07

    申请号:CN202311280429.6

    申请日:2023-10-07

    Applicant: 华侨大学

    Abstract: 本发明公开了一种基于多任务学习的H.266VVC屏幕内容帧内CU快速划分方法及装置,涉及视频编码领域,该方法包括:获取屏幕内容视频,将128×128大小的CTU直接划分为64×64大小的CU;构建多任务学习网络模型,多任务学习网络模型包括主干网络、第一子网络和第二子网络,主干网络用于提取CU特征,将CU特征输入第一子网络和第二子网络,得到CU划分类型和编码模式,可结合编码模式及其预测概率和临近CU的划分类型综合确定预测结果;将64×64大小的CU输入经训练的多任务学习网络模型,得到第一预测结果;若第一预测结果为划分,则进一步划分为4个32×32大小的CU,并输入经训练的多任务学习网络模型,得到第二预测结果,解决H.266VVC屏幕内容帧内编码复杂度高的问题。

    一种屏幕图像JND模型构建方法

    公开(公告)号:CN110399886B

    公开(公告)日:2022-09-30

    申请号:CN201910635863.9

    申请日:2019-07-15

    Applicant: 华侨大学

    Abstract: 本发明涉及一种屏幕图像JND模型构建方法。首先利用文本分割技术得到屏幕图像的文本区域;其次提取文本区域的边缘像素,将屏幕图像分为文本边缘区域和非文本边缘区域;然后利用边缘宽度和边缘对比度计算出边缘结构失真敏感度和边缘对比度掩蔽,得到文本边缘区域视觉掩蔽模型;接着计算出非文本边缘区域的亮度自适应和对比度掩蔽效应,得到非文本边缘区域视觉掩蔽模型;最后结合文本边缘区域和非文本边缘区域的视觉掩蔽模型得到屏幕图像JND模型。本发明充分考虑屏幕图像特点以及人眼对屏幕图像不同区域具有不同的视觉感知特性等因素,对屏幕图像的视觉冗余信息有较为准确的估计,可广泛地应用到屏幕图像技术领域。

    一种基于时空对抗生成网络的视频行为识别方法

    公开(公告)号:CN110390308A

    公开(公告)日:2019-10-29

    申请号:CN201910682423.9

    申请日:2019-07-26

    Applicant: 华侨大学

    Abstract: 本发明涉及一种基于时空对抗生成网络的视频行为识别方法,包括:基于空域对抗生成网络提取输入的包含人类行为的视频的空间特征,基于时域对抗生成网络提取输入的包含人类行为的视频的时间特征,将空间对抗生成网络和时间对抗生成网络提取的两个维度特征进行拼接,得到时空融合特征,通过SVM支持向量机对融合后的特征向量进行分类,从而识别出视频行为。本发明基于时空生成对抗网络,充分考虑其学习特性、视频特点和人类动作特征,有效地结合人类行为特征提取视频中所包含的主要时空特征信息进行融合,基于时空特征信息之间的互补性获得更有表征能力的时空特征,从而对输入视频做出准确的行为识别。

    一种采用几何引导的稀疏表示三维点云压缩方法

    公开(公告)号:CN110278444B

    公开(公告)日:2022-11-01

    申请号:CN201910645303.1

    申请日:2019-07-17

    Applicant: 华侨大学

    Abstract: 本发明公开了一种采用几何引导的稀疏表示三维点云压缩方法,属于视频编码领域,方法包括:采用八叉树对输入三维点云进行分块;采用图形变换的方法得到原始的冗余字典;利用块内点云的几何信息对原始的冗余字典进行降采样;对每个单元块进行去均值,随后对去均值的颜色信息在降采样字典上稀疏表示;利用基于八叉树的块均值预测算法对每个编码单元块的均值进行预测编码;采用Run‑Level的方法对量化后的稀疏系数进行编码;最后用算术编码器对所有已编码的参数进行熵编码。本发明利用稀疏表示,能够对庞大的三维点云数据进行高效压缩,极大地提高了三维点云的传输和存储效率。

    一种基于时空对抗生成网络的视频行为识别方法

    公开(公告)号:CN110390308B

    公开(公告)日:2022-09-30

    申请号:CN201910682423.9

    申请日:2019-07-26

    Applicant: 华侨大学

    Abstract: 本发明涉及一种基于时空对抗生成网络的视频行为识别方法,包括:基于空域对抗生成网络提取输入的包含人类行为的视频的空间特征,基于时域对抗生成网络提取输入的包含人类行为的视频的时间特征,将空间对抗生成网络和时间对抗生成网络提取的两个维度特征进行拼接,得到时空融合特征,通过SVM支持向量机对融合后的特征向量进行分类,从而识别出视频行为。本发明基于时空生成对抗网络,充分考虑其学习特性、视频特点和人类动作特征,有效地结合人类行为特征提取视频中所包含的主要时空特征信息进行融合,基于时空特征信息之间的互补性获得更有表征能力的时空特征,从而对输入视频做出准确的行为识别。

Patent Agency Ranking