一种基于视点间关系的多视点视频帧插入方法

    公开(公告)号:CN106954076B

    公开(公告)日:2018-01-12

    申请号:CN201710146159.8

    申请日:2017-03-13

    Applicant: 济南大学

    Abstract: 本发明一种基于视点间关系的多视点视频帧插入方法,首先,利用单向运动估计算法进行前向和后向运动估计,获取前向运动向量场和后向运动向量场;其次,根据深度信息检测出上一帧图像和当前帧图像中遮挡图像块,并进一步将遮挡图像块分成覆盖型图像块和非覆盖型图像块;然后,利用多视点视频视点间的关系进行遮挡图像块的处理;最后,对插入帧中的每个图像块进行运动向量分配,并利用双向运动补偿实现帧插入。本发明充分考虑多视点视频中不同视点在空间上的关系,利用这种空间关系解决视频帧插入中遮挡区域处理这一关键问题,减弱现有的二维视频和三维视频帧插入方法中存在的前景物体边缘模糊现象,从而明显提升了插入帧的视觉质量。

    一种基于视点间关系的多视点视频帧插入方法

    公开(公告)号:CN106954076A

    公开(公告)日:2017-07-14

    申请号:CN201710146159.8

    申请日:2017-03-13

    Applicant: 济南大学

    CPC classification number: H04N19/89 H04N19/513

    Abstract: 本发明一种基于视点间关系的多视点视频帧插入方法,首先,利用单向运动估计算法进行前向和后向运动估计,获取前向运动向量场和后向运动向量场;其次,根据深度信息检测出上一帧图像和当前帧图像中遮挡图像块,并进一步将遮挡图像块分成覆盖型图像块和非覆盖型图像块;然后,利用多视点视频视点间的关系进行遮挡图像块的处理;最后,对插入帧中的每个图像块进行运动向量分配,并利用双向运动补偿实现帧插入。本发明充分考虑多视点视频中不同视点在空间上的关系,利用这种空间关系解决视频帧插入中遮挡区域处理这一关键问题,减弱现有的二维视频和三维视频帧插入方法中存在的前景物体边缘模糊现象,从而明显提升了插入帧的视觉质量。

    基于外观姿态融合网络的分心驾驶行为识别方法及系统

    公开(公告)号:CN118736536A

    公开(公告)日:2024-10-01

    申请号:CN202410730294.7

    申请日:2024-06-06

    Applicant: 济南大学

    Abstract: 本发明公开了基于外观姿态融合网络的分心驾驶行为识别方法及系统,其中方法,包括:训练后的外观姿态融合网络,用于基于人体姿态估计算法对驾驶行为视频数据进行处理,得到驾驶员上半身的关节坐标,根据所述关节坐标得到骨骼数据;将关节坐标输入到第一图卷积网络中,得到关节特征;将骨骼数据,输入到第二图卷积网络中,得到骨骼特征;将驾驶行为视频数据,输入到混合卷积网络中,得到外观特征;将关节特征和骨骼特征进行融合得到一级融合特征;将一级融合特征与外观特征进行融合得到二级融合特征;对二级融合特征进行分类,得到驾驶行为识别结果。

    一种基于毫米波雷达与单目相机融合的行人检测方法

    公开(公告)号:CN118675202A

    公开(公告)日:2024-09-20

    申请号:CN202410883599.1

    申请日:2024-07-03

    Applicant: 济南大学

    Abstract: 本申请公开了一种基于毫米波雷达与单目相机融合的行人检测方法。该方法的实现步骤为:单目相机与4D毫米波雷达同步采集图像和点云数据;对点云进行数据预处理、聚类分析以及行人估计,获取行人目标;基于无锚框的目标检测算法对图像进行行人检测,获取行人目标;将点云中行人目标映射到图像中,实现两传感器检测目标的空间对齐;利用基于位置估计的目标关联算法实现两传感器中行人目标的匹配;根据匹配结果获得融合目标及非融合目标,实现多维度的行人检测。该方法使用了毫米波雷达和单目相机采集数据,环境感知能力较强,可以实现多维度的数据采集。相较于基于单一传感器的行人检测方法,该行人检测方法的环境适应能力更强,漏检率更低。

    一种基于特征交互和时空关联的变化检测方法及系统

    公开(公告)号:CN118608971A

    公开(公告)日:2024-09-06

    申请号:CN202410793800.7

    申请日:2024-06-19

    Applicant: 济南大学

    Abstract: 本发明提供了一种基于特征交互和时空关联的变化检测方法和系统,涉及遥感图像变化检测技术领域。具体步骤如下:首先,获取双时相变化检测数据集并进行预处理。其次,构建基于双编码双解码结构的变化检测模型,该模型包括混合有效通道模块,其主要使得双时特征在交互时保持空间信息相似性并保留更多有效的通道信息;空间去噪注意模块,其主要将浅层特征上的细节和边缘等位置信息强化;特征融合上采样模块,其主要用于上采样阶段进行模型的训练与数据传递。最后,验证训练完成的模型效果并保存结果使用。本发明能有效解决遥感应用任务中面临的因遥感图像自身的局限性而带来的挑战,例如雾、阴影、复杂目标等,提高了变化检测任务的精度。

    基于拉普拉斯滤波器的遥感图像分割方法及系统

    公开(公告)号:CN115965640A

    公开(公告)日:2023-04-14

    申请号:CN202310006762.1

    申请日:2023-01-04

    Applicant: 济南大学

    Abstract: 本发明公开了基于拉普拉斯滤波器的遥感图像分割方法及系统;其中所述方法,包括:基于拉普拉斯滤波器构建边缘特征提取模块;基于通道注意力模块和空间注意力模块,构建卷积注意力模块;基于边缘特征提取模块和卷积注意力模块,构建遥感图像分割模型;构建训练集,采用训练集对遥感图像分割模型进行训练,得到训练后的遥感图像分割模型;对训练后的遥感图像分割模型,移除边缘特征提取模块和卷积注意力模块,得到语义分割模型;获取待分割的遥感图像,采用语义分割模型,对待分割的遥感图像进行处理,得到分割后的图像。本发明解决了由于遥感图像场景复杂性较高等一系列原因导致的特征提取不完整,分割精度低的问题。

    遥感建筑物检测的方法、系统、设备及存储介质

    公开(公告)号:CN115797776A

    公开(公告)日:2023-03-14

    申请号:CN202211640734.7

    申请日:2022-12-20

    Applicant: 济南大学

    Abstract: 本发明公开了遥感建筑物检测的方法及系统;其中所述方法,包括:构建训练集,所述训练集为已知遥感建筑物检测标签的遥感图像;采用训练集对建筑物检测模型进行训练,得到训练后的建筑物检测模型,其中,所述训练后的建筑物检测模型中设有边缘掩码网络;将边缘掩码网络,从训练后的建筑物检测模型中移除,得到修正的建筑物检测模型;获取待检测的遥感图像,将待检测的遥感图像输入到修正的建筑物检测模型中,输出图像中建筑物的检测结果。本发明利用边缘检测算子生成的边缘掩码标签和边缘掩码网络生成的特征图像进行训练,用来增强位置信息,在不增加计算代价的同时提高了物体检测精度。

Patent Agency Ranking