-
公开(公告)号:CN119091467A
公开(公告)日:2024-12-06
申请号:CN202411275283.0
申请日:2024-09-12
Applicant: 北京航空航天大学 , 杭州海康威视数字技术股份有限公司
Abstract: 本发明涉及一种基于主体目标判别的遮挡行人再识别方法,属于计算机视觉技术领域。本发明首先获取行人抓拍切片,对所述行人抓拍切片进行人体实例分割,得到分割掩码集合;然后对集合中各掩码打分,根据掩码分值确定当前行人抓拍切片的主体目标分割掩码;最后基于主体目标分割掩码识别被遮挡行人。本发明能够准确判别主体目标,并基于主体目标对遮挡行人切片进行图像级别的干扰信息过滤,从而有效缓解图片中的背景和非目标行人对主体目标特征学习的干扰,提升行人再识别模型在遮挡情况下的关联准确率。
-
公开(公告)号:CN118799204A
公开(公告)日:2024-10-18
申请号:CN202411276518.8
申请日:2024-09-12
Applicant: 北京航空航天大学 , 杭州海康威视数字技术股份有限公司
Abstract: 本发明涉及一种夜间可见光与热红外图像融合方法,属于图像处理领域。本发明基于图像分层理论,运用加权引导滤波和高斯滤波组合策略,分别将夜间可见光图像和热红外图像分解为基本、边缘和纹理层;然后提出基于视觉亮度感知特性的分层互补融合方法将夜间可见光图像和热红外图像的基本层、纹理层和边缘层进行融合重构。该方法不仅保留了可见光图像的自然色彩和纹理细节,同时融合了热红外图像的热辐射信息,显著提升了目标的显著性和图像的整体质量。
-
公开(公告)号:CN118396125B
公开(公告)日:2024-08-23
申请号:CN202410848459.0
申请日:2024-06-27
Applicant: 杭州海康威视数字技术股份有限公司
IPC: G06N5/04 , G06F16/583 , G06F18/22 , G06V20/50
Abstract: 本申请公开了一种智能巡店方法、装置、存储介质和电子设备,包括:基于采集的当前图像数据,利用多模态模型生成对应于所述图像数据的文本描述;将所述文本描述和巡检问题组成输入问题,利用针对所述巡店场景训练生成的场景大语言模型,对所述输入问题进行处理,生成对应所述输入问题的目标答案;基于所述目标答案进行问题上报和提醒;场景大语言模型是基于所述巡店场景的巡店规则在通用大语言模型基础上调优生成的,所述巡店规则至少包括开放性事件对应的规则。应用本申请,能够针对开放性事件实现远程智能巡检。
-
公开(公告)号:CN117115851A
公开(公告)日:2023-11-24
申请号:CN202310608449.5
申请日:2023-05-27
Applicant: 北京航空航天大学 , 杭州海康威视数字技术股份有限公司
IPC: G06V40/10 , G06V20/52 , G06V10/82 , G06N3/0464 , G06N3/084
Abstract: 一种在监控场景下,基于去除深度模型在推理过程中学习到的冗余属性间共现偏置,以实现在变化场景下更好泛化性能的行人属性识别方法。包括:一种新的属性信息解耦特征的生成方式。在模型对某一属性的识别和推理过程中,利用特征的线性插值与标签的线性插值匹配这一先前研究中的实验观察,通过最小化该属性的特化特征与其他属性预测概率间的互信息,以减少对于其他属性信息的利用,在显著降低训练时间的前提下实现了更好的准确率;一种新的特征插值方法。本发明提出了方向‑范数分离的特征插值方法,该方法相比于原始的插值过程,可以更好地发掘与探索属性特征的分布域,进而提高了模型的最终效果;使用卷积神经网络,按照以上算法框架,以特定训练参数配置对模型进行训练,得到行人属性识别模型。本方法可以实现在发生时空变化的监控场景中更加精确和稳定的行人属性识别结果。
-
公开(公告)号:CN115062793A
公开(公告)日:2022-09-16
申请号:CN202210753273.8
申请日:2022-06-28
Applicant: 杭州海康威视数字技术股份有限公司
Abstract: 本申请提供一种网络模型的训练方法、装置及设备,该方法包括:获取网络层对应的浮点型激活梯度值,对浮点型激活梯度值进行量化,得到定点型激活梯度值和激活值量化超参;基于定点型激活梯度值对网络层的初始模型权重进行调整,将调整后的模型权重更新为所述网络层的初始模型权重;若所述网络层不是首个网络层,则对网络层的初始模型权重进行量化,得到反向定点型权重和反向权重值量化超参;基于所述定点型激活梯度值、所述反向定点型权重、所述激活值量化超参和所述反向权重值量化超参,确定所述网络层的前一个网络层对应的浮点型激活梯度值。通过本申请的技术方案,可以减轻运算复杂度,运算量较小,资源消耗较小,能够对训练过程进行加速。
-
公开(公告)号:CN114897164A
公开(公告)日:2022-08-12
申请号:CN202210615980.0
申请日:2022-05-31
Applicant: 杭州海康威视数字技术股份有限公司
IPC: G06N3/08 , G06N3/04 , G06V10/764 , G06V10/82
Abstract: 本申请提供一种神经网络模型裁剪方法、装置、电子设备及存储介质,该方法包括:依据待裁剪神经网络模型的结构特性,将所述待裁剪神经网络模型划分为多个结构分组;依据对所述待裁剪神经网络模型进行裁剪前后的损失函数变化,确定对所述多个结构分组中各结构分组进行裁剪的目标裁剪率;其中,所述损失函数变化依据第一因子和第二因子确定,所述第一因子用于表征各结构分组中各个权重的重要性,所述第二因子用于表征不同结构分组之间的相互作用;依据所述目标裁剪率,分别对各结构分组进行裁剪,得到裁剪后的神经网络模型。该方法可以在较小性能损失的情况下加速压缩神经网络模型。
-
公开(公告)号:CN112348102A
公开(公告)日:2021-02-09
申请号:CN202011278817.7
申请日:2020-11-16
Applicant: 浙江大学 , 杭州海康威视数字技术股份有限公司
IPC: G06K9/62 , G06K9/00 , G06F16/783
Abstract: 本发明公开了一种基于查询的自底向上视频定位方法和系统。首先,获取查询内容Query和待定位视频Ref,其次将查询内容Query特征与待定位视频Ref的特征融合到一个全新的特征图中。最后特征图通过深度学习方法检测出查询内容Query所对应的真实视频片段GT‑v位于待定位视频Ref中的起始位置和终止位置。本发明方法根据查询内容Query可以准确而又高效的识别真实视频片段GT‑v在待定位视频Ref的起始位置和终止位置。
-
-
-
-
-
-