-
公开(公告)号:CN114842400A
公开(公告)日:2022-08-02
申请号:CN202210565190.6
申请日:2022-05-23
Applicant: 山东海量信息技术研究院 , 济南大学
IPC: G06V20/40 , G06V10/40 , G06V10/74 , G06V10/774 , G06V10/80 , G06V10/82 , G06N3/04 , G06N3/08 , G06K9/62
Abstract: 本发明公开了基于残差块和特征金字塔的视频帧生成方法及系统;其中所述方法,包括:获取待处理的前后两帧图像;将获取的前后两帧图像,输入到训练后的视频帧生成模型中,输出生成的中间帧图像;其中,视频帧生成模型包括相互连接的改进后的编码器和改进后的解码器;所述改进后的编码器,是通过将U‑Net网络编码器的卷积层替换为残差块得到;所述改进后的编码器,用于提取前后两帧图像的空时特征;所述改进后的解码器,是通过将U‑Net网络的解码器设置为特征金字塔网络得到;所述改进后的解码器,用于对提取的特征进行特征融合,以生成中间帧图像。
-
公开(公告)号:CN115170402A
公开(公告)日:2022-10-11
申请号:CN202210492821.6
申请日:2022-05-07
Applicant: 山东海量信息技术研究院 , 济南大学
Abstract: 本发明提出了基于循环残差卷积和过度参数化卷积的帧插入方法及系统,将获取的前后两帧图片拼接后输入到基于循环卷积和残差操作的特征提取器中,提取深度特征;利用深度特征得到两帧图片中每个像素的偏移向量和权重,根据偏移向量和权重对每个像素进行扭曲,得到扭曲后的两帧图片;通过基于Gr i dNet的帧生成网络对扭曲后的前后两帧图片进行融合,生成新的插入帧;本发明通过基于循环残差卷积的特征提取器提取更准确的深度特征,过度参数化卷积提高深度网络训练的速度,并帮助网络在不增加计算复杂度的情况下提高网络性能,提高插入帧的视觉质量。
-
公开(公告)号:CN114883001A
公开(公告)日:2022-08-09
申请号:CN202210570384.5
申请日:2022-05-24
Applicant: 山东海量信息技术研究院 , 济南大学
Abstract: 本发明公开了基于异质信息网络的疾病预测系统,包括:获取模块,其被配置为:获取待预测患者的当前电子病历;疾病预测模块,其被配置为:将待预测患者的当前电子病历,输入到训练后的疾病预测模型中,输出疾病预测结果;其中,疾病预测模型的工作原理为:对待预测患者的当前电子病历进行数据扩充,基于扩充后的数据构建电子病历异质图;在电子病历异质图上,基于元路径的学习表示进行电子病历的嵌入表示,通过注意力机制进行元路径邻居节点的聚合;最终实现对待预测患者的疾病预测。以便准确预测患者是否存在潜在疾病,对患者做出准确地预测。
-
公开(公告)号:CN113971797B
公开(公告)日:2025-02-07
申请号:CN202111473235.9
申请日:2021-12-02
Applicant: 山东海量信息技术研究院 , 济南大学
IPC: G06V20/59 , G06V10/44 , G06V10/764 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明属于计算机视觉技术领域,提供了一种基于动作行为特征的危险驾驶行为识别方法及系统,该网络以CenterNet为目标检测主体,将ResNet‑50和Hourglass网络各自做了改进并结合,用作CenterNet的主干。为了提升精度和速度,在其他多个模块也都做了改进,并采集自然条件下的驾驶员危险驾驶行为数据集用于评估网络,实验部分分别做了消融实验和对比实验,证明每一个模块的改进都可以对模型性能产生积极影响。
-
公开(公告)号:CN113971797A
公开(公告)日:2022-01-25
申请号:CN202111473235.9
申请日:2021-12-02
Applicant: 山东海量信息技术研究院 , 济南大学
Abstract: 本发明属于计算机视觉技术领域,提供了一种基于动作行为特征的危险驾驶行为识别方法及系统,该网络以CenterNet为目标检测主体,将ResNet‑50和Hourglass网络各自做了改进并结合,用作CenterNet的主干。为了提升精度和速度,在其他多个模块也都做了改进,并采集自然条件下的驾驶员危险驾驶行为数据集用于评估网络,实验部分分别做了消融实验和对比实验,证明每一个模块的改进都可以对模型性能产生积极影响。
-
公开(公告)号:CN115546503B
公开(公告)日:2025-02-07
申请号:CN202211285533.X
申请日:2022-10-20
Applicant: 济南大学
IPC: G06V10/42 , G06V10/26 , G06V10/764 , G06V10/82 , G06V10/774 , G06N3/0464 , G06N3/048 , G06N3/047 , G06N3/084
Abstract: 本发明公开了基于深度注意力的自适应多尺度视觉特征表达方法及系统,包括:获取原始神经网络模型作为SDA网络模块的主干分支,用于分层特征的提取;设计SDA网络模块的轻量化深度注意力分支,用于动态加权分层特征;堆叠多个SDA网络模块构成神经网络,即为基于深度注意力的自适应多尺度视觉特征表达的神经网络方法;对自适应多尺度特征表达神经网络SDA‑Net进行参数优化,所得到的神经网络模型可用于图像分类、目标检测和语义分割等视觉任务的主干。
-
公开(公告)号:CN116895037B
公开(公告)日:2024-10-29
申请号:CN202310912141.X
申请日:2023-07-24
Applicant: 济南大学
IPC: G06V20/40 , G06T3/4007 , G06V10/82 , G06N3/0464 , G06V10/86
Abstract: 本发明属于计算机视觉技术领域,具体为一种基于边缘信息和多尺度交叉融合网络的帧插入方法及系统,包括:获取连续的两帧图像,对图像进行裁剪和尺度变换,得到裁剪后的原尺度图像以及尺度变换后的图像;对原尺度图像进行特征提取,利用基于边缘信息的特征增强模块对提取的特征进行增强得到增强后的特征;对增强后的特征进行尺度变换后,分别对不同尺度的增强后的特征进行像素级参数提取,接着使用自适应流协作根据提取的像素级参数对不同尺度的图像进行帧扭曲操作,得到三个尺度的扭曲帧;将三个尺度的扭曲帧输入多尺度交叉融合网络中以合成插值帧。本发明的基于边缘信息的特征增强模块能够使模型获得更加完整的特征图,从而提高模型性能。
-
公开(公告)号:CN111753696B
公开(公告)日:2024-04-02
申请号:CN202010552152.8
申请日:2020-06-17
Applicant: 济南大学
Inventor: 冯志全
IPC: G06F16/29
Abstract: 本发明提供了一种感知场景信息的方法,所述的方法包括:S1:通过摄像头获取场景图像数据;S2:基于场景图像数据,计算虚拟物体在场景中的位置坐标;S3:基于场景图像数据,计算障碍物在场景中的位置坐标;S4:将障碍物坐标与虚拟物体坐标进行作差处理,确定场景内的各个物体的位置关系。本发明基于简单的实现逻辑,简化了应用条件,能够根据位置估计和地图进行自身定位,实现场景信息的感知。此外,还将该方法应用于仿真装置和机器人中。
-
公开(公告)号:CN110288714B
公开(公告)日:2022-11-04
申请号:CN201910543576.5
申请日:2019-06-21
Applicant: 济南大学
Inventor: 冯志全
Abstract: 本发明公开了一种虚拟仿真实验系统,其特征是,包括摄像头和虚拟实验容器,所述虚拟实验容器包括电子芯片和显示器,所述摄像头获取场景中物体和操作人员人脸数据图像,所述电子芯片处理所述数据图像,根据数据图像中人脸视线与虚拟实验容器的位置关系,计算得到电子芯片预存的实验三维动画序列沿视线方向的二维投影,所述显示器显示所述二维投影。该虚拟仿真实验系统在实验容器本体结构上设置显示器,解决了实验操作中用户眼睛和正在操作的实验容器方向不一致的问题,使用户的操作过程方便自然,减少用户的认知负荷,改善用户体验。
-
公开(公告)号:CN114781652B
公开(公告)日:2022-10-14
申请号:CN202210700832.9
申请日:2022-06-21
Applicant: 济南大学
Abstract: 本发明公开了一种基于多模态强化学习的人机协同框架,涉及人机协同技术领域,包括多模态强化学习意图理解模块和任务分配模块,所述的多模态强化学习意图理解模块中机器人通过收集用户的三种模态的特征通过强化学习在反复的迭代中学习用户的行为习惯,进而消除由于不同用户的行为习惯差异而产生的误差,实现对用户的更加鲁棒的意图理解,所述的任务分配模块根据用户的行为获取用户的意图之后指定机器人的动作序列。本发明消除了用户个体之间习惯的差异性而导致的协作效果偏差的问题,具有用户感知实时性好、适应性强的有益效果。
-
-
-
-
-
-
-
-
-