-
公开(公告)号:CN115100014B
公开(公告)日:2023-03-24
申请号:CN202210730497.7
申请日:2022-06-24
申请人: 山东省人工智能研究院 , 山东大学 , 烟台艾睿光电科技有限公司 , 泰华智慧产业集团股份有限公司
摘要: 本发明公开基于多层次化感知的社交网络图像复制移动伪造检测方法,该发明具体包含以下步骤:(1)自相关匹配分支对整张图像生成自相关得分图,(2)参考自相关得分图生成可疑图像块,(3)成对可疑图像块的关键点匹配,(4)融合两种得分图和损失函数约束网络训练。本发明先利用自相关匹配寻找整张伪造图像的可疑区域,然后使用关键点匹配淡化误警告区域和激活遗漏区域,使得匹配结果更加精准。本发明提出的关键点匹配分支,能解决现有的算法无法在平滑的伪造区域生成高质量的关键点匹配的问题。本方法生成最终预测掩码时,不仅考虑了自相关匹配的结果,也考虑了点匹配的结果,这种基于多层次感知的检测方法能生成更加精确的预测结果图。
-
公开(公告)号:CN115100014A
公开(公告)日:2022-09-23
申请号:CN202210730497.7
申请日:2022-06-24
申请人: 山东省人工智能研究院 , 山东大学 , 烟台艾睿光电科技有限公司 , 泰华智慧产业集团股份有限公司
摘要: 本发明公开基于多层次化感知的社交网络图像复制移动伪造检测方法,该发明具体包含以下步骤:(1)自相关匹配分支对整张图像生成自相关得分图,(2)参考自相关得分图生成可疑图像块,(3)成对可疑图像块的关键点匹配,(4)融合两种得分图和损失函数约束网络训练。本发明先利用自相关匹配寻找整张伪造图像的可疑区域,然后使用关键点匹配淡化误警告区域和激活遗漏区域,使得匹配结果更加精准。本发明提出的关键点匹配分支,能解决现有的算法无法在平滑的伪造区域生成高质量的关键点匹配的问题。本方法生成最终预测掩码时,不仅考虑了自相关匹配的结果,也考虑了点匹配的结果,这种基于多层次感知的检测方法能生成更加精确的预测结果图。
-
公开(公告)号:CN115063373A
公开(公告)日:2022-09-16
申请号:CN202210730860.5
申请日:2022-06-24
申请人: 山东省人工智能研究院 , 山东大学 , 青岛海尔智能技术研发有限公司 , 泰华智慧产业集团股份有限公司
IPC分类号: G06T7/00 , G06T7/13 , G06T7/181 , G06T3/00 , G06T5/00 , G06T7/73 , G06V10/80 , G06N3/04 , G06N3/08 , G06T3/40
摘要: 本发明公开了一种基于多尺度特征智能感知的社交网络的图像篡改定位方法,实现了基于对所有的图像篡改定位数据集的高效篡改定位;方法的具体步骤如下:对篡改图像预处理,提取边缘Groundtrhth图像,利用由sobel算子引导提取边缘特征然后采用多尺度边缘导向的注意力机制,在边缘伪影不一致的基础上挖掘篡改的粗略定位信息;构建多尺度上下文感知融合模块,利用此模块在不同的由边缘监督的尺度上进行局部和全局的搜寻,突出篡改和非篡改之间的差异;进行篡改信息的融合,输出的特征图通过样本不平衡损失来实现篡改区域的定位。本发明基于已知数据集可对其他数据集进行高效的篡改定位,能够有效地在不同篡改数据集上获得改善,并且获得极高的精度。
-
公开(公告)号:CN114842512A
公开(公告)日:2022-08-02
申请号:CN202210763141.3
申请日:2022-07-01
申请人: 山东省人工智能研究院 , 山东大学 , 苏州天瞳威视电子科技有限公司 , 泰华智慧产业集团股份有限公司
摘要: 本发明公开了基于多特征协同和语义感知的遮挡行人重识别和检索方法,属于计算机视觉和模式识别技术领域,实现了对有遮挡的行人重识别数据集的高效识别和检索;方法的具体步骤如下:图像预处理;双链网络模型搭建;双链网络的目标函数构建;基于多特征协同和人体语义感知的有遮挡行人重识别和检索方法;本发明可对现有公开有遮挡的行人重识别数据集进行高效识别和检索,能够有效地解决目标数据集由于遮挡、姿态变化造成的行人信息缺失、特征对齐困难等问题,并且方法收敛速度快。
-
公开(公告)号:CN114758285A
公开(公告)日:2022-07-15
申请号:CN202210663949.4
申请日:2022-06-14
申请人: 山东省人工智能研究院 , 山东大学 , 青岛海尔智能技术研发有限公司 , 泰华智慧产业集团股份有限公司
IPC分类号: G06V20/40 , G06K9/62 , G06V10/774
摘要: 本发明方法公开了基于锚自由和长时注意力感知的视频交互动作检测方法,属于计算机视觉和模式识别技术领域,实现了对长视频中动作部分的高效定位以及动作识别。方法的具体步骤如下:视频特征提取;搭建基于锚自由和长时注意力感知的视频交互双流网络模型;构建基于锚自由和长时注意力感知的视频交互动作检测方法的目标函数;基于锚自由和长时注意力感知的视频交互动作检测方法。本发明基于已知数据集训练后可对长视频的动作进行有效定位并进行动作识别,有效地解决了传统动作分类方法无法在长视频中进行有效分类的问题,并且提升收敛速度,提升了工作效率。
-
公开(公告)号:CN115063373B
公开(公告)日:2024-06-28
申请号:CN202210730860.5
申请日:2022-06-24
申请人: 山东省人工智能研究院 , 山东大学 , 青岛海尔智能技术研发有限公司 , 泰华智慧产业集团股份有限公司
IPC分类号: G06T7/00 , G06T7/13 , G06T7/181 , G06T7/73 , G06V10/80 , G06T3/4007 , G06T3/04 , G06T5/70 , G06T5/90 , G06N3/0464 , G06N3/048 , G06N3/09
摘要: 本发明公开了一种基于多尺度特征智能感知的社交网络的图像篡改定位方法,实现了基于对所有的图像篡改定位数据集的高效篡改定位;方法的具体步骤如下:对篡改图像预处理,提取边缘Groundtrhth图像,利用由sobel算子引导提取边缘特征然后采用多尺度边缘导向的注意力机制,在边缘伪影不一致的基础上挖掘篡改的粗略定位信息;构建多尺度上下文感知融合模块,利用此模块在不同的由边缘监督的尺度上进行局部和全局的搜寻,突出篡改和非篡改之间的差异;进行篡改信息的融合,输出的特征图通过样本不平衡损失来实现篡改区域的定位。本发明基于已知数据集可对其他数据集进行高效的篡改定位,能够有效地在不同篡改数据集上获得改善,并且获得极高的精度。
-
公开(公告)号:CN114842512B
公开(公告)日:2022-10-14
申请号:CN202210763141.3
申请日:2022-07-01
申请人: 山东省人工智能研究院 , 山东大学 , 苏州天瞳威视电子科技有限公司 , 泰华智慧产业集团股份有限公司
摘要: 本发明公开了基于多特征协同和语义感知的遮挡行人重识别和检索方法,属于计算机视觉和模式识别技术领域,实现了对有遮挡的行人重识别数据集的高效识别和检索;方法的具体步骤如下:图像预处理;双链网络模型搭建;双链网络的目标函数构建;基于多特征协同和人体语义感知的有遮挡行人重识别和检索方法;本发明可对现有公开有遮挡的行人重识别数据集进行高效识别和检索,能够有效地解决目标数据集由于遮挡、姿态变化造成的行人信息缺失、特征对齐困难等问题,并且方法收敛速度快。
-
公开(公告)号:CN114758285B
公开(公告)日:2022-10-14
申请号:CN202210663949.4
申请日:2022-06-14
申请人: 山东省人工智能研究院 , 山东大学 , 青岛海尔智能技术研发有限公司 , 泰华智慧产业集团股份有限公司
IPC分类号: G06V20/40 , G06K9/62 , G06V10/774
摘要: 本发明方法公开了基于锚自由和长时注意力感知的视频交互动作检测方法,属于计算机视觉和模式识别技术领域,实现了对长视频中动作部分的高效定位以及动作识别。方法的具体步骤如下:视频特征提取;搭建基于锚自由和长时注意力感知的视频交互双流网络模型;构建基于锚自由和长时注意力感知的视频交互动作检测方法的目标函数;基于锚自由和长时注意力感知的视频交互动作检测方法。本发明基于已知数据集训练后可对长视频的动作进行有效定位并进行动作识别,有效地解决了传统动作分类方法无法在长视频中进行有效分类的问题,并且提升收敛速度,提升了工作效率。
-
公开(公告)号:CN114758362B
公开(公告)日:2022-10-11
申请号:CN202210670639.5
申请日:2022-06-15
申请人: 山东省人工智能研究院 , 山东大学 , 烟台艾睿光电科技有限公司 , 苏州天瞳威视电子科技有限公司
IPC分类号: G06V40/10 , G06V20/52 , G06V20/70 , G06V10/26 , G06V10/28 , G06V10/74 , G06V10/82 , G06N3/04 , G06K9/62
摘要: 本发明提供一种基于语义感知注意力和视觉屏蔽的换衣行人重识别方法、系统、电子设备及存储介质,属于计算机视觉技术领域,根据人体语义分割信息分别定位人体和服装区域。通过人体语义注意力网络获得前景增强的特征表示,以突出前景信息并为原始特征图重新赋权重。通过衣物视觉外观屏蔽网络获得原始特征和视觉屏蔽特征表示。本发明通过人体语义注意力网络,可以尽可能地减少背景信息的负面影响,并获得更多的辨别性特征。通过衣物视觉外观屏蔽网络,将换衣行人重识别模型集中在与衣服无关的视觉语义信息上为行人提取更稳健的特征表示。本发明具备科学性、系统性和鲁棒性的技术效果。
-
公开(公告)号:CN114758362A
公开(公告)日:2022-07-15
申请号:CN202210670639.5
申请日:2022-06-15
申请人: 山东省人工智能研究院 , 山东大学 , 烟台艾睿光电科技有限公司 , 苏州天瞳威视电子科技有限公司
IPC分类号: G06V40/10 , G06V20/52 , G06V20/70 , G06V10/26 , G06V10/28 , G06V10/74 , G06V10/82 , G06N3/04 , G06K9/62
摘要: 本发明提供一种基于语义感知注意力和视觉屏蔽的换衣行人重识别方法、系统、电子设备及存储介质,属于计算机视觉技术领域,根据人体语义分割信息分别定位人体和服装区域。通过人体语义注意力网络获得前景增强的特征表示,以突出前景信息并为原始特征图重新赋权重。通过衣物视觉外观屏蔽网络获得原始特征和视觉屏蔽特征表示。本发明通过人体语义注意力网络,可以尽可能地减少背景信息的负面影响,并获得更多的辨别性特征。通过衣物视觉外观屏蔽网络,将换衣行人重识别模型集中在与衣服无关的视觉语义信息上为行人提取更稳健的特征表示。本发明具备科学性、系统性和鲁棒性的技术效果。
-
-
-
-
-
-
-
-
-