-
公开(公告)号:CN106954076B
公开(公告)日:2018-01-12
申请号:CN201710146159.8
申请日:2017-03-13
Applicant: 济南大学
IPC: H04N19/89 , H04N19/513
Abstract: 本发明一种基于视点间关系的多视点视频帧插入方法,首先,利用单向运动估计算法进行前向和后向运动估计,获取前向运动向量场和后向运动向量场;其次,根据深度信息检测出上一帧图像和当前帧图像中遮挡图像块,并进一步将遮挡图像块分成覆盖型图像块和非覆盖型图像块;然后,利用多视点视频视点间的关系进行遮挡图像块的处理;最后,对插入帧中的每个图像块进行运动向量分配,并利用双向运动补偿实现帧插入。本发明充分考虑多视点视频中不同视点在空间上的关系,利用这种空间关系解决视频帧插入中遮挡区域处理这一关键问题,减弱现有的二维视频和三维视频帧插入方法中存在的前景物体边缘模糊现象,从而明显提升了插入帧的视觉质量。
-
公开(公告)号:CN106954076A
公开(公告)日:2017-07-14
申请号:CN201710146159.8
申请日:2017-03-13
Applicant: 济南大学
IPC: H04N19/89 , H04N19/513
CPC classification number: H04N19/89 , H04N19/513
Abstract: 本发明一种基于视点间关系的多视点视频帧插入方法,首先,利用单向运动估计算法进行前向和后向运动估计,获取前向运动向量场和后向运动向量场;其次,根据深度信息检测出上一帧图像和当前帧图像中遮挡图像块,并进一步将遮挡图像块分成覆盖型图像块和非覆盖型图像块;然后,利用多视点视频视点间的关系进行遮挡图像块的处理;最后,对插入帧中的每个图像块进行运动向量分配,并利用双向运动补偿实现帧插入。本发明充分考虑多视点视频中不同视点在空间上的关系,利用这种空间关系解决视频帧插入中遮挡区域处理这一关键问题,减弱现有的二维视频和三维视频帧插入方法中存在的前景物体边缘模糊现象,从而明显提升了插入帧的视觉质量。
-
公开(公告)号:CN103252214A
公开(公告)日:2013-08-21
申请号:CN201310194162.9
申请日:2013-05-21
Applicant: 济南大学
Abstract: 本发明公开了一种活性炭纤维、分级多孔Ni-Ni3P/活性炭纤维复合材料以及它们的制备和应用,该活性炭纤维含有C、O、P三种元素,具有无定形态且乱层石墨结构,形貌与桑蚕丝纤维类似,活性炭纤维主要由介孔组成,表面存在大量的含氧官能团。通过浸渍烧结法在活性炭纤维上负载Ni和Ni3P即可得到复合材料。本发明以桑蚕丝为模板,制得的活性炭纤维和复合材料性能优异、制备简单,在光照和微波下具有很好的降解有机染料的作用,在实际生产中对有机废水处理很有意义。
-
公开(公告)号:CN119356524A
公开(公告)日:2025-01-24
申请号:CN202411458686.9
申请日:2024-10-18
Applicant: 济南大学
IPC: G06F3/01 , A61B34/30 , A61B34/00 , G16H40/63 , G06V40/10 , G06V40/20 , G06V20/20 , G06V20/40 , G06V20/56 , G06V10/25 , G06V10/44 , G06V10/50 , G06V10/56 , G06V10/82 , G06N3/045 , G06N3/0464
Abstract: 本申请公开了一种改进的适应手术环境下的手势识别方法及手术用具传递系统。其实现步骤为:利用AR眼镜第一视角捕获图像,同时将当前手术所需要的材料投影到AR眼镜中虚拟呈像辅助手术,将图像通过TCP/IP以及RosConnected传递给ROS系统,对图像进行预处理,利用RegNetCA网络进行手势识别,得到手势识别结果后进入判断门,指导机械臂进行相应物品抓取传递,利用kinova机械臂上的d435i进行物体识别,利用Yolov8识别物体返回物体三维坐标,利用坐标转换将相机坐标系下的物体坐标转换成整体坐标,机械臂得到坐标后达到目标点位进行抓取并将物品传递到指定位置。本发明形成了一个完整的无接触物体传递系统,通过融合颜色的手势识别算法提高了手势识别的准确率。
-
公开(公告)号:CN118736536A
公开(公告)日:2024-10-01
申请号:CN202410730294.7
申请日:2024-06-06
Applicant: 济南大学
Abstract: 本发明公开了基于外观姿态融合网络的分心驾驶行为识别方法及系统,其中方法,包括:训练后的外观姿态融合网络,用于基于人体姿态估计算法对驾驶行为视频数据进行处理,得到驾驶员上半身的关节坐标,根据所述关节坐标得到骨骼数据;将关节坐标输入到第一图卷积网络中,得到关节特征;将骨骼数据,输入到第二图卷积网络中,得到骨骼特征;将驾驶行为视频数据,输入到混合卷积网络中,得到外观特征;将关节特征和骨骼特征进行融合得到一级融合特征;将一级融合特征与外观特征进行融合得到二级融合特征;对二级融合特征进行分类,得到驾驶行为识别结果。
-
公开(公告)号:CN118675202A
公开(公告)日:2024-09-20
申请号:CN202410883599.1
申请日:2024-07-03
Applicant: 济南大学
IPC: G06V40/10 , G06V10/25 , G06V10/75 , G06V10/74 , G06V10/762 , G06V10/80 , G06V10/82 , G01S13/86 , G01S13/06 , G01S7/41
Abstract: 本申请公开了一种基于毫米波雷达与单目相机融合的行人检测方法。该方法的实现步骤为:单目相机与4D毫米波雷达同步采集图像和点云数据;对点云进行数据预处理、聚类分析以及行人估计,获取行人目标;基于无锚框的目标检测算法对图像进行行人检测,获取行人目标;将点云中行人目标映射到图像中,实现两传感器检测目标的空间对齐;利用基于位置估计的目标关联算法实现两传感器中行人目标的匹配;根据匹配结果获得融合目标及非融合目标,实现多维度的行人检测。该方法使用了毫米波雷达和单目相机采集数据,环境感知能力较强,可以实现多维度的数据采集。相较于基于单一传感器的行人检测方法,该行人检测方法的环境适应能力更强,漏检率更低。
-
公开(公告)号:CN118608971A
公开(公告)日:2024-09-06
申请号:CN202410793800.7
申请日:2024-06-19
Applicant: 济南大学
IPC: G06V20/10 , G06V10/25 , G06V10/44 , G06V10/774 , G06V10/80 , G06V10/82 , G06N3/0455 , G06N3/084
Abstract: 本发明提供了一种基于特征交互和时空关联的变化检测方法和系统,涉及遥感图像变化检测技术领域。具体步骤如下:首先,获取双时相变化检测数据集并进行预处理。其次,构建基于双编码双解码结构的变化检测模型,该模型包括混合有效通道模块,其主要使得双时特征在交互时保持空间信息相似性并保留更多有效的通道信息;空间去噪注意模块,其主要将浅层特征上的细节和边缘等位置信息强化;特征融合上采样模块,其主要用于上采样阶段进行模型的训练与数据传递。最后,验证训练完成的模型效果并保存结果使用。本发明能有效解决遥感应用任务中面临的因遥感图像自身的局限性而带来的挑战,例如雾、阴影、复杂目标等,提高了变化检测任务的精度。
-
公开(公告)号:CN117257308A
公开(公告)日:2023-12-22
申请号:CN202311422803.1
申请日:2023-10-30
Applicant: 济南大学
IPC: A61B5/18 , G06V20/59 , G06V10/44 , G06V10/52 , G06V10/80 , G06V10/82 , G06N3/0455 , G06N3/048 , G06N3/094 , G06N3/0464 , G06F18/213 , G06F18/25 , G06F18/24
Abstract: 本发明属于计算机视觉领域,尤其涉及一种基于驾驶员眼动信息的驾驶员认知分心检测方法及系统,方法包括:获取驾驶员驾驶过程中的驾驶环境图像和驾驶员的眼动信息;对驾驶员的眼动信息进行预处理得到眼动注意力热图;基于多尺度融合对抗网络对当前帧的眼动注意力热图和驾驶环境图像进行多尺度特征提取以及多尺度特征融合后,得到当前帧的第一分类标签;将当前帧的多视图多尺度特征输入至时空融合网络中得到当前帧的第二分类标签;将当前帧的第一分类标签和第二分类标签进行加权融合后得到最终的驾驶员认知分心检测结果。本发明基于深度学习的激活与反向激活融合对抗网络对驾驶环境图像和眼动注意力热图进行特征融合,提高识别精度。
-
公开(公告)号:CN115965640A
公开(公告)日:2023-04-14
申请号:CN202310006762.1
申请日:2023-01-04
Applicant: 济南大学
IPC: G06T7/11 , G06T7/13 , G06V10/26 , G06V10/44 , G06V10/774 , G06V10/764 , G06V10/82 , G06V10/80 , G06V20/13 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了基于拉普拉斯滤波器的遥感图像分割方法及系统;其中所述方法,包括:基于拉普拉斯滤波器构建边缘特征提取模块;基于通道注意力模块和空间注意力模块,构建卷积注意力模块;基于边缘特征提取模块和卷积注意力模块,构建遥感图像分割模型;构建训练集,采用训练集对遥感图像分割模型进行训练,得到训练后的遥感图像分割模型;对训练后的遥感图像分割模型,移除边缘特征提取模块和卷积注意力模块,得到语义分割模型;获取待分割的遥感图像,采用语义分割模型,对待分割的遥感图像进行处理,得到分割后的图像。本发明解决了由于遥感图像场景复杂性较高等一系列原因导致的特征提取不完整,分割精度低的问题。
-
公开(公告)号:CN115797776A
公开(公告)日:2023-03-14
申请号:CN202211640734.7
申请日:2022-12-20
Applicant: 济南大学
Abstract: 本发明公开了遥感建筑物检测的方法及系统;其中所述方法,包括:构建训练集,所述训练集为已知遥感建筑物检测标签的遥感图像;采用训练集对建筑物检测模型进行训练,得到训练后的建筑物检测模型,其中,所述训练后的建筑物检测模型中设有边缘掩码网络;将边缘掩码网络,从训练后的建筑物检测模型中移除,得到修正的建筑物检测模型;获取待检测的遥感图像,将待检测的遥感图像输入到修正的建筑物检测模型中,输出图像中建筑物的检测结果。本发明利用边缘检测算子生成的边缘掩码标签和边缘掩码网络生成的特征图像进行训练,用来增强位置信息,在不增加计算代价的同时提高了物体检测精度。
-
-
-
-
-
-
-
-
-