-
公开(公告)号:CN114842512B
公开(公告)日:2022-10-14
申请号:CN202210763141.3
申请日:2022-07-01
申请人: 山东省人工智能研究院 , 山东大学 , 苏州天瞳威视电子科技有限公司 , 泰华智慧产业集团股份有限公司
摘要: 本发明公开了基于多特征协同和语义感知的遮挡行人重识别和检索方法,属于计算机视觉和模式识别技术领域,实现了对有遮挡的行人重识别数据集的高效识别和检索;方法的具体步骤如下:图像预处理;双链网络模型搭建;双链网络的目标函数构建;基于多特征协同和人体语义感知的有遮挡行人重识别和检索方法;本发明可对现有公开有遮挡的行人重识别数据集进行高效识别和检索,能够有效地解决目标数据集由于遮挡、姿态变化造成的行人信息缺失、特征对齐困难等问题,并且方法收敛速度快。
-
公开(公告)号:CN114842512A
公开(公告)日:2022-08-02
申请号:CN202210763141.3
申请日:2022-07-01
申请人: 山东省人工智能研究院 , 山东大学 , 苏州天瞳威视电子科技有限公司 , 泰华智慧产业集团股份有限公司
摘要: 本发明公开了基于多特征协同和语义感知的遮挡行人重识别和检索方法,属于计算机视觉和模式识别技术领域,实现了对有遮挡的行人重识别数据集的高效识别和检索;方法的具体步骤如下:图像预处理;双链网络模型搭建;双链网络的目标函数构建;基于多特征协同和人体语义感知的有遮挡行人重识别和检索方法;本发明可对现有公开有遮挡的行人重识别数据集进行高效识别和检索,能够有效地解决目标数据集由于遮挡、姿态变化造成的行人信息缺失、特征对齐困难等问题,并且方法收敛速度快。
-
公开(公告)号:CN114821246A
公开(公告)日:2022-07-29
申请号:CN202210737757.3
申请日:2022-06-28
申请人: 山东省人工智能研究院 , 烟台艾睿光电科技有限公司 , 苏州天瞳威视电子科技有限公司 , 泰华智慧产业集团股份有限公司
IPC分类号: G06V10/774 , G06V10/82 , G06N3/04 , G06N3/08
摘要: 本发明公开了基于多层次残差网络感知和注意力机制的小目标检测方法,Baseline采用单阶段检测器YOLOv5;方法的具体步骤如下:(1)构建虚拟训练样本,扩充训练数据集的规模,提升模型整体性能;(2)使用多层残差卷积提取图像多维度特征;(3)注意力机制增强浅层特征图;(4)特征金字塔连接浅层特征图;(5)利用损失函数优化模型预测目标位置信息和类别信息以及置信度;(6)P2检测层配合Lufl与VIoU Loss预测小目标。本发明发明了选择性样本增强扩充了数据集,平衡样本之间的差异,充分利用浅层特征图,显著提高小目标检测的召回率和准确率。
-
公开(公告)号:CN114821246B
公开(公告)日:2022-10-14
申请号:CN202210737757.3
申请日:2022-06-28
申请人: 山东省人工智能研究院 , 烟台艾睿光电科技有限公司 , 苏州天瞳威视电子科技有限公司 , 泰华智慧产业集团股份有限公司
IPC分类号: G06V10/774 , G06V10/82 , G06N3/04 , G06N3/08
摘要: 本发明公开了基于多层次残差网络感知和注意力机制的小目标检测方法,Baseline采用单阶段检测器YOLOv5;方法的具体步骤如下:(1)构建虚拟训练样本,扩充训练数据集的规模,提升模型整体性能;(2)使用多层残差卷积提取图像多维度特征;(3)注意力机制增强浅层特征图;(4)特征金字塔连接浅层特征图;(5)利用损失函数优化模型预测目标位置信息和类别信息以及置信度;(6)P2检测层配合Lufl与VIoU Loss预测小目标。本发明发明了选择性样本增强扩充了数据集,平衡样本之间的差异,充分利用浅层特征图,显著提高小目标检测的召回率和准确率。
-
公开(公告)号:CN115100014B
公开(公告)日:2023-03-24
申请号:CN202210730497.7
申请日:2022-06-24
申请人: 山东省人工智能研究院 , 山东大学 , 烟台艾睿光电科技有限公司 , 泰华智慧产业集团股份有限公司
摘要: 本发明公开基于多层次化感知的社交网络图像复制移动伪造检测方法,该发明具体包含以下步骤:(1)自相关匹配分支对整张图像生成自相关得分图,(2)参考自相关得分图生成可疑图像块,(3)成对可疑图像块的关键点匹配,(4)融合两种得分图和损失函数约束网络训练。本发明先利用自相关匹配寻找整张伪造图像的可疑区域,然后使用关键点匹配淡化误警告区域和激活遗漏区域,使得匹配结果更加精准。本发明提出的关键点匹配分支,能解决现有的算法无法在平滑的伪造区域生成高质量的关键点匹配的问题。本方法生成最终预测掩码时,不仅考虑了自相关匹配的结果,也考虑了点匹配的结果,这种基于多层次感知的检测方法能生成更加精确的预测结果图。
-
公开(公告)号:CN115100014A
公开(公告)日:2022-09-23
申请号:CN202210730497.7
申请日:2022-06-24
申请人: 山东省人工智能研究院 , 山东大学 , 烟台艾睿光电科技有限公司 , 泰华智慧产业集团股份有限公司
摘要: 本发明公开基于多层次化感知的社交网络图像复制移动伪造检测方法,该发明具体包含以下步骤:(1)自相关匹配分支对整张图像生成自相关得分图,(2)参考自相关得分图生成可疑图像块,(3)成对可疑图像块的关键点匹配,(4)融合两种得分图和损失函数约束网络训练。本发明先利用自相关匹配寻找整张伪造图像的可疑区域,然后使用关键点匹配淡化误警告区域和激活遗漏区域,使得匹配结果更加精准。本发明提出的关键点匹配分支,能解决现有的算法无法在平滑的伪造区域生成高质量的关键点匹配的问题。本方法生成最终预测掩码时,不仅考虑了自相关匹配的结果,也考虑了点匹配的结果,这种基于多层次感知的检测方法能生成更加精确的预测结果图。
-
公开(公告)号:CN115410138A
公开(公告)日:2022-11-29
申请号:CN202211358974.8
申请日:2022-11-02
申请人: 山东省人工智能研究院 , 山东中联视听信息科技股份有限公司 , 青岛海尔智能技术研发有限公司 , 泰华智慧产业集团股份有限公司
IPC分类号: G06V20/40 , G06V40/20 , G06K9/62 , G06V10/764
摘要: 本发明属于计算机视觉和模式识别技术领域,公开了一种基于特征编码器分类和定位串行的视频动作检测方法,准确地实现了对视频中动作实例的定位和分类;方法的具体步骤如下:(1)视频预处理;(2)基于特征编码器分类和定位串行的视频动作检测方法的网络模型搭建;(3)基于特征编码器分类和定位串行的视频动作检测方法的目标函数构建;(4)基于特征编码器分类和定位串行的视频动作检测方法;本发明基于已知数据集对视频中的动作实例进行高效定位和分类,并且方法收敛速度快。
-
公开(公告)号:CN115410060B
公开(公告)日:2023-02-28
申请号:CN202211353463.7
申请日:2022-11-01
申请人: 山东省人工智能研究院 , 山东中联视听信息科技股份有限公司 , 泰华智慧产业集团股份有限公司 , 青岛海尔智能技术研发有限公司
IPC分类号: G06V10/774 , G06V10/764 , G06V10/50 , G06V10/80 , G06V10/82 , G06V20/40
摘要: 本发明属于目标检测与识别技术领域,本发明提供了一种面向公共安全视频的全局感知小目标智能检测方法,包括以下步骤:图像线下预处理,样本平衡数据增强;构建模型网络结构;构建模型损失函数:在分类损失和置信度损失采用交叉熵损失,在回归损失中对于原有的回归损失基础上加入角点距离损失;使用SC非极大值抑制方法保留有效检测框;输入待检测图像检验本方法模型有效性。本发明利用全局信息提高检测小目标物体的准确率和召回率,通过多重非极大值抑制保留有效锚框,解决了目前基于锚框目标检测中小目标物体难以检测,锚框难以匹配等诸多问题。
-
公开(公告)号:CN115410060A
公开(公告)日:2022-11-29
申请号:CN202211353463.7
申请日:2022-11-01
申请人: 山东省人工智能研究院 , 山东中联视听信息科技股份有限公司 , 泰华智慧产业集团股份有限公司 , 青岛海尔智能技术研发有限公司
IPC分类号: G06V10/774 , G06V10/764 , G06V10/50 , G06V10/80 , G06V10/82 , G06V20/40
摘要: 本发明属于目标检测与识别技术领域,本发明提供了一种面向公共安全视频的全局感知小目标智能检测方法,包括以下步骤:图像线下预处理,样本平衡数据增强;构建模型网络结构;构建模型损失函数:在分类损失和置信度损失采用交叉熵损失,在回归损失中对于原有的回归损失基础上加入角点距离损失;使用SC非极大值抑制方法保留有效检测框;输入待检测图像检验本方法模型有效性。本发明利用全局信息提高检测小目标物体的准确率和召回率,通过多重非极大值抑制保留有效锚框,解决了目前基于锚框目标检测中小目标物体难以检测,锚框难以匹配等诸多问题。
-
公开(公告)号:CN114842559B
公开(公告)日:2022-10-14
申请号:CN202210744654.X
申请日:2022-06-29
申请人: 山东省人工智能研究院 , 青岛海尔智能技术研发有限公司 , 泰华智慧产业集团股份有限公司 , 烟台艾睿光电科技有限公司
IPC分类号: G06V40/20 , G06V20/40 , G06V10/774 , G06V10/764 , G06F17/15
摘要: 本发明提供一种基于多模态时间感知和注意力的视频交互动作检测方法,属于计算机视觉技术领域,通过将全局时序信息与多尺度的局部时序信息进行聚合,并将聚合后的特征进行金字塔池化,获取多个尺度的金字塔特征,然后利用金字塔特征进行高效地动作定位。本发明达到了减少模型参数,提高模型的鲁棒性的技术效果,体现了本发明所提供的基于多模态时间感知和注意力的视频交互动作检测方法在时序动作定位方面的监测精度优越性。
-
-
-
-
-
-
-
-
-