-
公开(公告)号:CN118629088A
公开(公告)日:2024-09-10
申请号:CN202410649924.8
申请日:2024-05-24
Applicant: 河北工业大学
IPC: G06V40/20 , G06V20/40 , G06V10/26 , G06V10/24 , G06V10/77 , G06V10/82 , G06V10/764 , G06N3/0464 , G06N3/048 , G06N3/08
Abstract: 本发明涉及图像处理技术领域,提供一种基于深度神经网络的跳远距离自动测量方法及系统,包括:使用基于深度学习的图像分割模型对原视频图像进行分割,使用语义分割模型获得跳远毯定位图像、获得起跳点图像和落地点图像,对跳远毯定位图像、起跳点图像以及落地点图像分别进行透视变换,获得跳远毯识别图像、起跳点识别图像以及落地点识别图像,通过将起跳点识别图像、落地点识别图像以及跳远毯识别图像输入比例计算模块,获得跳远距离。本发明使用了深度神经网络对人物和跳远毯进行识别,实现了精准而实时地处理分析跳远数据,提高了识别的准确性,同时也具有部署简单、准确率高、实时性好和通用性好的特点。
-
公开(公告)号:CN114385801A
公开(公告)日:2022-04-22
申请号:CN202111617839.6
申请日:2021-12-27
Applicant: 河北工业大学
IPC: G06F16/332 , G06F16/33 , G06F16/35 , G06N3/04 , G06N3/08
Abstract: 本发明针对现有深度学习方法模型的不足,提出了一种基于分层细化LSTM网络的知识追踪方法及系统,属于知识追踪技术领域,该方法包括:构件深度追踪知识模型:通过初步学习层、双层注意力层、深入学习层的层次化过程,在学生学习的过程中得到学生的知识掌握情况;学生知识掌握情况融合自注意力机制作为LSTM网络的输入,计算得到学生的最终知识掌握情况;基于学生的最终知识掌握情况预测学生回答问题是否正确。本发明提高了知识追踪的性能,同时在一定程度上提供了可解释性,可以更好的帮助学习者的制定个性化计划。
-
公开(公告)号:CN119850792A
公开(公告)日:2025-04-18
申请号:CN202510058709.5
申请日:2025-01-15
Applicant: 河北工业大学
IPC: G06T11/60 , G06V30/19 , G06N3/0455 , G06N3/0464 , G06N3/084 , G06F40/30
Abstract: 本发明公开一种基于扩散大模型的图像上文本的可控生成方法,该方法可以定制生成用户所需的图像。具体来说首先通过使用Transformer对用户输入的提示词进行语义提取,进而生成符合用户需求的字体布局图像,将字体布局图像连同用户提示词输入到控制网络以生成控制向量,通过指导逐步降噪过程达到可控生成的目的,并通过字符感知损失来加强可控生成的效果。此外,本发明方法提出一种有效的参数微调策略,来避免生成模型过拟合或者灾难性遗忘在仅更新不到总参数的3%的情况下实现了连贯的文本生成,显著加速了模型的收敛过程。最后,对于目标区域生成部分,为减少背景部分带来的影响,使用背景重建机制来保留原始图中非目标区域的部分,减少背景信息的损失。
-
公开(公告)号:CN119338940A
公开(公告)日:2025-01-21
申请号:CN202411537210.4
申请日:2024-10-31
Applicant: 河北工业大学
IPC: G06T11/00 , G06T5/50 , G06V10/764 , G06V10/40 , G06V10/28 , G06V10/82 , G06F18/24 , G06N3/0455 , G06N3/0464 , G06N3/048 , G06N3/084 , G06N3/09
Abstract: 本发明属于图像生成技术领域,具体公开了一种基于扩散大模型的多模态场景融合方法。首先对扩散模型主干网络的权重矩阵进行奇异值分解,用于更新主干网络的权重矩阵;然后,将文本提示词输入到扩散模型中,生成文本条件图像;文本条件图像经过VAE解码和预处理,得到预处理的文本条件图像;将预处理的文本条件图像输入到预训练的视觉分类器中预测类别,得到预测标签;根据预测标签与真实标签计算更新损失,对扩散模型的参数进行更新,实现扩散模型的微调;最后,利用微调后的扩散模型生成场景融合图像;场景融合分为两个阶段,第一阶段是通过对背景图像和前景图像进行采样生成合并噪声图像,第二阶段是利用合并噪声图像迭代生成场景融合图像。该方法利用图像引导图像生成,实现前景图像与背景图像的无缝融合,同时利用控制信息引导图像生成,增强了场景融合的可控性。
-
公开(公告)号:CN119962571A
公开(公告)日:2025-05-09
申请号:CN202510048717.1
申请日:2025-01-13
Applicant: 河北工业大学
IPC: G06N3/042 , G06N3/0895 , G06N5/022 , G06F18/25 , G06F18/22
Abstract: 本发明属于自监督图网络表征技术领域,具体是一种基于子空间的自适应负样本调节的网络表征方法。首先,提取网络图中节点的属性信息及结构信息,得到网络图的属性矩阵和邻接矩阵;属性矩阵分别经过两个属性编码器,得到第一个视图和第二个视图的属性特征;邻接矩阵分别经过两个结构编码器,得到第一个视图和第二个视图的结构特征;将第一个视图的属性特征和结构特征进行拼接,得到第一个视图的节点特征;同理,得到第二个视图的节点特征;接着,利用两个视图的节点特征,构建亲和度矩阵;然后,基于自适应负样本调节的图对比学习,对属性编码器和结构编码器进行训练,根据对比学习损失函数计算训练损失;最后,将两个视图的节点特征进行融合,得到节点表征。在每轮训练过程中动态地为各个负样本对分配权重,权重越大越可能是假负样本对,以解决负样本中存在假负样本的问题,提高节点表征能力。
-
公开(公告)号:CN115984616A
公开(公告)日:2023-04-18
申请号:CN202211688325.4
申请日:2022-12-27
Applicant: 河北工业大学
IPC: G06V10/764 , G06V10/82 , G06V10/80 , G06V10/44 , G06V10/42 , G06N3/0464 , G06N3/048 , G06N3/047 , G06N3/08
Abstract: 本发明涉及图像分类方法领域,尤其是一种基于双线性卷积神经网络的细粒度车辆分类方法,包括以下步骤:将车辆RGB图像输入到卷积神经网络中;将ResNet50作为Backbone,提取基础特征,得到基础特征向量fI;采用双线性卷积网络并行提取车辆局部特征信息和整体特征信息;对局部特征向量和整体特征向量进行结合;将上述结果输入到分类器中,得到每个类别的分数,取平均值S作为最终结果,从而得到训练集的车辆特征数据和测试集的车辆数据。本发明针对车辆整体特征信息和局部特征信息设计了上下不同的子网络,并对上层子网络单独设置辅助损失函数,得到更具判别价值的局部特征信息。
-
公开(公告)号:CN117975520A
公开(公告)日:2024-05-03
申请号:CN202310236273.5
申请日:2023-03-13
Applicant: 河北工业大学
IPC: G06V40/16 , G06V10/764 , G06V10/44 , G06V10/82 , G06N3/0464 , G06N3/08 , G06V10/80 , G06V40/10
Abstract: 本发明涉及图像识别领域,公开了一种人脸面部特征的分类方法、装置、设备及存储介质,用于提高通过人脸图像进行人脸分类时的准确率。该方法包括:获取待分类图像,将待分类图像输入预置的深度残差网络进行多层特征提取,得到对应的多层特征图;通过注意力机制对待分类图像进行显著特征区域分割,确定多个局部特征图;对多层特征图进行特征融合,生成多个融合特征图;基于多个局部特征图对多个融合特征图进行权重设置,得到目标特征图;通过目标特征图对待分类图像进行类别分析,得到对应的人脸类型,并完成待分类图像的分类。
-
公开(公告)号:CN116523959A
公开(公告)日:2023-08-01
申请号:CN202310409494.8
申请日:2023-04-17
Applicant: 河北工业大学
Abstract: 本发明涉及计算机视觉技术领域,公开了一种基于人工智能的运动目标检测方法及系统,用于提高运动目标检测的准确率,方法包括:获取初始动态视频,对所述初始动态视频中的多个初始视频帧进行背景补偿,得到多个目标视频帧;采用三帧差法,对多个目标视频帧进行运动目标检测,得到初始运动目标信息;调用预置的编码器网络,对多个目标视频帧进行特征提取,得到每个目标视频帧的深度特征;对所述初始运动目标信息和每个目标视频帧的深度特征进行多尺度卷积处理,得到融合特征;调用预置的解码器网络,对所述融合特征进行解码处理,得到二值掩膜结果,并通过所述二值掩膜结果对目标车辆在行驶过程中的运动目标进行检测,确定运动目标检测结果。
-
公开(公告)号:CN115641480A
公开(公告)日:2023-01-24
申请号:CN202211392565.X
申请日:2022-11-08
Applicant: 河北工业大学
IPC: G06V10/771 , G06V10/774 , G06V10/764 , G06V10/74 , G06V10/762 , G06V10/82 , G06N3/0464 , G06N3/048 , G06N3/08
Abstract: 本发明公开了一种基于样本筛选与标签矫正的噪声数据集训练方法,属于深度学习、卷积神经网络和噪声数据集训练领域,具体地说是一种基于样本筛选与标签矫正的噪声数据集训练方法。提出了一种新的样本筛选策略,其利用基于类级特征的聚类过程来识别在特征空间中靠近其对应类中心的干净样本。该方法还提出了采用一种新的标签矫正策略,将训练标签重建为当前训练标签、特征标签以及预测标签结果的加权组合,随着训练的进行,可以将噪声标签逐渐纠正为正确的标签,这增加了干净的可用于训练的样本数量,降低了训练集的噪声强度,提高了模型的精度与鲁棒性。
-
公开(公告)号:CN115294177A
公开(公告)日:2022-11-04
申请号:CN202210897142.7
申请日:2022-07-28
Applicant: 河北工业大学
Abstract: 本发明是基于数据分布差异与多尺度特征融合的运动目标检测方法,将快速背景减除算法与前景分割算法相结合进行运动目标检测,以达到既能找到运动目标,又能精准分割的效果。本发明首先使用帧差法和背景减法进行运动目标检测,初步提取运动特征,再使用多尺度前景提取网络得进行前景提取,最后将二者特征结果进行IOU计算,得到运动目标的二值掩膜。其次,本发明对多尺度前景提取网络进行改进,在其解码器中加入通道注意力机制,令其赋予特征图不同通道以不同权重,去除融入特征和噪声,以得到更干净的前景。本发明方法在运动目标检测主流数据集CDNet2014上进行实验,结果表明,该算法能够准确地检测出各种场景下的运动目标,且具有良好的综合性能。
-
-
-
-
-
-
-
-
-