-
公开(公告)号:CN116188307A
公开(公告)日:2023-05-30
申请号:CN202310136152.3
申请日:2023-02-20
Applicant: 华中科技大学
IPC: G06T5/00 , G06V10/26 , G06V10/54 , G06V10/56 , G06V10/77 , G06V10/82 , G06N3/0464 , G06N3/048 , G06N3/08
Abstract: 本发明公开了适用于全天的图像低照度增强和语义分割联合方法和系统,属于计算机视觉技术领域。本发明首次将低照度增强和语义分割结合在一起,整个网络采用端到端的训练方式,增强任务和分割任务通过分享底部的层学习一些共有的低层次的特征,共享信息,相互补充,提升两者的表现;通过将增强网络和语义分割网络联合优化,增强网络对图像增强的结果会在下游特征提取网络和两任务分支信息的引导下进行重构,同时语义分割网络学习低照度图像增强中恢复的结构细节特征和颜色特征,提高语义分割网络的精度;既能对低光图像进行增强从而辅助驾驶员对低光环境的感知,又能从视觉任务的角度获得语义分割结果,对夜间数据和白天数据同时具有较强的适应性。
-
公开(公告)号:CN111461162B
公开(公告)日:2023-04-07
申请号:CN202010005939.2
申请日:2020-01-03
Applicant: 华中科技大学
IPC: G06V10/764 , G06V10/774 , G06V10/25 , G06V10/82
Abstract: 本发明公开了一种零样本目标检测模型及其建立方法,属于模式识别领域。具体包括:根据可见类RoI视觉特征、高斯随机噪声以及可见类的语义嵌入向量,训练IoUGAN;将不可见类的语义嵌入向量输入IoUGAN,获取不可见类的视觉特征;用不可见类的视觉特征训练零样本分类器;将零样本分类器与特征提取器、框回归器结合,建立零样本目标检测模型。IoUGAN用于接收不可见类的语义嵌入向量,生成不可见类的视觉特征训练零样本分类器;IoUGAN包括CFU、FFU和BFU;本发明获取的零样本目标检测模型根据输入的不可见类的测试样本,可准确识别目标的位置以及类别,并且实用性也较强。
-
公开(公告)号:CN114913546A
公开(公告)日:2022-08-16
申请号:CN202210457706.5
申请日:2022-04-27
Applicant: 华中科技大学
Abstract: 本发明公开了一种人物交互关系检测方法及系统,属于计算机视觉技术领域。现有的人物交互关系检测方法需要用一个共享的预测器同时检测人、物体和它们对应的交互关系,会造成实例级和交互关系级在注意力视野上的不一致。为此,本发明提出一种并行推理网络,其同时包含了两个分别针对实例级定位和交互关系级语义理解的独立预测器。前者通过感知实例的末端区域从而聚焦于实例级的定位;后者扩散视野到交互关系区域,从而更好地理解交互关系级语义。并且本发明的实例级预测器的实例级查询向量和关系级预测器的交互关系级查询向量是一一对应的关系,因此它们之间并不需要任何实例与关系的匹配程序,从而大大减轻了计算负担。
-
公开(公告)号:CN111461129B
公开(公告)日:2022-08-02
申请号:CN202010253715.3
申请日:2020-04-02
Applicant: 华中科技大学
Abstract: 本发明公开了一种基于上下文先验的场景分割方法及系统,属于模式识别领域。方法包括:构建场景分割网络;该网络包括特征提取模块、特征聚合模块、上下文先验模块和特征融合模块;前两个模块依次对输入图像进行特征提取和特征聚合;上下文先验模块,对聚合得到的特征进行学习得到上下文先验图,上下文先验图学习得到类内先验和类间先验,将其与特征聚合模块的输出进行加权,对应得到类内特征和类间特征;特征融合模块,将特征提取模块输出的特征图、类内特征和类间特征进行级联融合和上采样后输出;将待分割场景图像输入训练好的场景分割模型,得到分割结果。本发明能够清楚地捕获类内特征和类间特征,有效提高了场景分割的准确度。
-
公开(公告)号:CN114581819A
公开(公告)日:2022-06-03
申请号:CN202210163283.6
申请日:2022-02-22
Applicant: 华中科技大学
Abstract: 本发明提供一种视频行为识别方法及系统,包括:确定预训练好的识别网络;识别网络包括:时空特征提取模块和集合匹配模块;时空特征提取模块用于提取接收到视频的空间特征和时间特征,集和匹配模块用于基于空间特征和时间特征以及模板视频的时空特征将接收到视频与模板视频进行匹配,识别接收到视频的行为;模板视频包括T类视频;对识别网络进行训练时,从T类视频中循环随机选取S类视频,为每类视频确定K个训练样本,将S类视频对应的训练样本输入到识别网络进行训练;将待识别的视频和模板视频输入到预训练好的识别网络中,以对待识别视频进行行为识别,输出对应的行为识别结果。本发明在小样本场景下,可以实现灵活准确的视频匹配和识别。
-
公开(公告)号:CN113205520A
公开(公告)日:2021-08-03
申请号:CN202110435343.0
申请日:2021-04-22
Applicant: 华中科技大学
Abstract: 本发明提供一种对图像进行语义分割的方法及系统,包括:确定样本图像;提取视觉特征和深度特征;对语义分割模型进行训练;包括编码模块和解码模块;编码模块将每组特征输入DFS,融合得到一组多模特征,通过CA对各组多模特征进行筛选,并将筛选后的多模特征输入DS学习各个深度特征对应的权重矩阵,基于权重矩阵和相应深度特征筛选出相应的关键深度特征,得到各组含有关键深度信息的多模特征;构建DDC,提取相关的语义特征,得到融合后的语义特征;解码模块基于融合后的语义特征对每组图像中的彩色图像进行语义分割;将待语义分割图像输入到训练好的语义分割模型,以进行语义分割。本发明的语义分割模型可以更加合理的利用深度信息。
-
公开(公告)号:CN109903233B
公开(公告)日:2021-08-03
申请号:CN201910023228.5
申请日:2019-01-10
Applicant: 华中科技大学
Abstract: 本发明公开了一种基于线性特征的联合图像复原和匹配方法,该方法构造线性映射矩阵,提取主要线性特征计算初始化清晰实时图像和加权稀疏系数,选出清晰实时图像的加权稀疏系数中最大分量,其对应像素字典矩阵中的元素在参考图像中的位置即为最终匹配结果。本发明还提供了实现上述方法的系统。本发明提取线性特征,起到了减轻图像模糊带来的干扰,去除大量无用的信息,保持用稀疏系数重构清晰实时图像的线性关系的作用,具有提高图像复原和匹配准确性的技术效果,同时降低计算量,提高实时性。
-
公开(公告)号:CN108764065B
公开(公告)日:2020-12-08
申请号:CN201810428801.6
申请日:2018-05-04
Applicant: 华中科技大学
Abstract: 本发明公开了一种行人重识别特征融合辅助学习的方法,包括:将加入局部特征训练得到的全局特征提取模型用于提取行人图像的全局特征,利用全局特征进行行人重识别,所述全局特征提取模型的训练包括:采集全身图像训练集,检测全身图像训练集中的局部图像,得到局部图像训练集;分别利用全身图像训练集和局部图像训练集训练全身卷积神经网络和局部卷积神经网络,得到全身模型和局部模型;分别利用全身模型和局部模型提取全身图像训练集和局部图像训练集的全局特征和局部特征,利用融合局部特征后的全局特征训练全身模型,得到全局特征提取模型。本发明在训练时将局部特征和全局特征融合,提升了行人重识别的准确率。
-
公开(公告)号:CN111539896A
公开(公告)日:2020-08-14
申请号:CN202010367514.6
申请日:2020-04-30
Applicant: 华中科技大学
IPC: G06T5/00
Abstract: 本发明公开了一种基于域自适应的图像去雾方法及系统,属于模式识别领域。本发明通过图像转换模块有效减少合成域和真实域之间的领域偏差,提高图像去雾模型在真实域的泛化性;将真实雾天图像融入到合成域和真实域去雾模型的训练中,用来约束模型的训练,更进一步增加模型的泛化性,使得去雾后的图像更清晰。本发明中的总损失函数包括暗通道先验损失、总变分损失和一致性损失,暗通道先验损失强调恢复出的图像的暗通道的大部分像素值为0或者接近0,总变分损失希望去雾后的图像的像素平滑分布,一致性损失保证两个去雾模型的输出结果能够一致,因此,以该总损失函数最小化为目标,使得去雾后的图像更清晰,细节更明显。
-
公开(公告)号:CN108520497B
公开(公告)日:2020-08-04
申请号:CN201810217553.0
申请日:2018-03-15
Applicant: 华中科技大学
Abstract: 本发明公开了一种基于距离加权稀疏表达先验的图像复原与匹配一体化方法,包括:利用退化图像和初始清晰图像对模糊核的约束与梯度算子正则化来估计模糊核,得到模糊核的估计;利用模糊核的估计和字典D对初始清晰图像的约束来估计初始清晰图像,得到清晰图像估计;采用距离加权的稀疏表达算法,得到清晰图像估计在字典集中的稀疏表达系数向量估计;对上述步骤进行A次迭代,得到目标图像和目标图像在参考图像中的初始定位;缩小参考图像的范围后利用上述方法得到目标图像的复原图像和定位结果。本发明有效解决了现有模糊图像复原与匹配方法中存在的对噪声敏感、较差的复原效果对匹配任务造成严重的影响等问题,适用于视觉导航系统。
-
-
-
-
-
-
-
-
-