-
公开(公告)号:CN119722486A
公开(公告)日:2025-03-28
申请号:CN202411819178.9
申请日:2024-12-11
Applicant: 武汉轻工大学
Abstract: 本申请涉及自动驾驶技术领域,具体地说,本发明涉及一种联合图像配准的图像融合方法、装置及电子设备,属于自动驾驶技术领域。其中,该方法利用深度学习网络构建图像配准融合模型,对未配准的红外/可见光图像进行配准与融合,以实现车辆环境快速感知。该模型先对图像进行特征提取,然后对提取的特征信息进行特征匹配与校准,最后通过重构模块获取融合图像。在网络训练阶段,计算融合图像与红外/可见光图像的信息损失,基于损失对模型进行训练,得到训练完备的网络模型。本申请通过图像配准融合端到端网络模型,综合利用可见光和红外图像优势快速获取环境信息,使得该模型可应用于车辆环境感知高实时性需求场景。
-
公开(公告)号:CN119722489A
公开(公告)日:2025-03-28
申请号:CN202411886963.6
申请日:2024-12-20
Applicant: 武汉轻工大学
IPC: G06T5/50 , G06T5/60 , G06T9/00 , G06V10/80 , G06V10/52 , G06V10/82 , G06V10/75 , G06N3/0464 , G06N3/048 , G06N3/08
Abstract: 本发明涉及一种基于3D卷积神经网络的红外可见光图像融合方法,属于图像增强技术领域,其中,该方法包括:获取训练完备图像融合模型,图像融合模型包括编码器、特征融合模块和解码器;获取待融合的红外图像和可见光图像;基于编码器对所述待融合的红外图像和可见光图像进行高维语义特征提取,获得多个可见光特征图和多个红外特征图;基于特征融合模块将多个可见光特征图和多个红外特征图进行交叉匹配拼接,并对拼接后的特征进行加权,得到处理特征图;基于解码器对处理特征图进行加权融合,得到图像融合结果。本发明解决了现有技术中图像融合会出现亮度中和或过饱和、信息丢失等,从而影响融合性能的技术问题。
-
公开(公告)号:CN119073900A
公开(公告)日:2024-12-06
申请号:CN202411194195.8
申请日:2024-08-28
Applicant: 武汉轻工大学
Abstract: 本发明提供了一种音视觉互影响实验方法。在配备多通道球形扬声器系统、LED灯、头部转动追踪装置、眼动仪的消音室内通过邀请多个实验对象进行实验以确定听觉和视觉之间的相互作用关系。多通道球形扬声器系统由X个扬声器组成遍布实验室各个方位;设置n(n为奇数)个LED黄灯安装在0度水平面上,其中一个位于中心方位角0度,剩下的LED灯以两个作为一组,每组LED灯分别设置在水平方位角+/‑θi度处(根据n的数量选择(n‑1)/2个不同的θ,i=(n‑1)/2);通过多通道球形扬声器系统和LED灯产生一系列听觉和视觉刺激,要求实验对象坐在房间中心并在实验结束后回答最后一次光闪烁位置是位于左侧还是右侧;头部转动追踪装置通过设置高清摄像头位于人脸正前方追踪头部运动,头部明显转动则实验作废;此外,实验对象需要使用眼动仪记录注视方向和时间,注视方向与光闪烁位置不一致或时间不足则该次实验作废。本发明可以精确检测和分析听觉与视觉刺激之间的相互影响,提高实验结果的精度。
-
-