-
公开(公告)号:CN116883825B
公开(公告)日:2024-08-02
申请号:CN202310923588.7
申请日:2023-07-26
Applicant: 南京信息工程大学
IPC: G06V20/05 , G06V10/774 , G06V10/80 , G06V10/82
Abstract: 本发明公开了一种结合多模态数据融合和Multiplemix的水下目标检测方法,提出多模态数据融合,防止信息丢失的下采样网络SPDmix,卷积注意力融合网络CACmix,此外还提出新的损失函数和正负样本分配策略。该方法分别对输入的单模态RGB图像和单模态多光谱图像数据进行特征提取,并融合两种模态并输入到网络中,在下采样时,不丢弃特征,选择深度融合减少信息丢失。其次通过注意力融合机制赋予特征之间权重来侧重特征之间的交互,使网络学习局部特征的依赖关系。最后通过三个检测头来实现对目标的定位和分类。该发明能够减少网络特征提取过程中信息的丢失,有效的提高了网络的特征提取能力,实现了对水下目标更准确的检测。
-
公开(公告)号:CN117351318A
公开(公告)日:2024-01-05
申请号:CN202311410608.7
申请日:2023-10-26
Applicant: 南京信息工程大学
IPC: G06V10/80 , G06Q10/04 , G06V10/25 , G06V10/26 , G06V10/82 , G06N3/0442 , G06N3/0455 , G06N3/0464 , G06Q50/40 , G08G1/01
Abstract: 本发明公开了一种基于交通算网的多源多要素融合方法,包括步骤如下:S1,收集交通场景数据,包括非结构化数据和结构化数据;S2,对于非结构化数据,采用非结构数据融合感知模块进行特征提取;同时,对于结构化数据采用基于Peep‑couple LSTM的编解码方式进行特征提取;通过在解码器端添加注意力机制,融合结构化数据和非结构化数据,生成所需要的特定交通场景融合特征;S3,将交通场景融合特征送入交通算网平台中,进行策略规划和系统调度。本发明能实现交通算网生成恰当的决策,优化交通流动、提高路网利用率、减少交通拥堵和闲置,并改善交通安全。
-
公开(公告)号:CN117690098B
公开(公告)日:2024-04-30
申请号:CN202410140684.9
申请日:2024-02-01
Applicant: 南京信息工程大学
IPC: G06V20/54 , G06V10/77 , G06V10/764 , G06V10/82 , G06V10/774
Abstract: 本发明公开了一种基于动态图卷积的开放驾驶场景下多标签识别方法,通过构建叠加动态图卷积网络捕捉每幅图像的内容感知类别,叠加动态图卷积网络包括词向量解耦模块、映射对齐模块和叠加动态图卷积模块;步骤如下:S1,词向量解耦模块以类别嵌入后生成的词向量语义为指导,学习特定类别的特征表示,得到特征向量集合;S2,映射对齐模块通过分析图像中的隐含区域关系来生成特征数据,获取一组感知向量来表征某种特定类别;S3,将特征向量集合和感知向量进行拼接、融合后的特征数据送入叠加动态图卷积模块,再进行特征传播,最后进行多标签分类。本发明能动态捕获每个图像内容感知类别关系,并兼顾模型训练的迭代速度和稳定性。
-
公开(公告)号:CN117690098A
公开(公告)日:2024-03-12
申请号:CN202410140684.9
申请日:2024-02-01
Applicant: 南京信息工程大学
IPC: G06V20/54 , G06V10/77 , G06V10/764 , G06V10/82 , G06V10/774
Abstract: 本发明公开了一种基于动态图卷积的开放驾驶场景下多标签识别方法,通过构建叠加动态图卷积网络捕捉每幅图像的内容感知类别,叠加动态图卷积网络包括词向量解耦模块、映射对齐模块和叠加动态图卷积模块;步骤如下:S1,词向量解耦模块以类别嵌入后生成的词向量语义为指导,学习特定类别的特征表示,得到特征向量集合D;S2,映射对齐模块通过分析图像中的隐含区域关系来生成特征数据,获取一组感知向量A来表征某种特定类别;S3,将特征向量集合D和感知向量A进行拼接、融合后的特征数据送入叠加动态图卷积模块,再进行特征传播,最后进行多标签分类。本发明能动态捕获每个图像内容感知类别关系,并兼顾模型训练的迭代速度和稳定性。
-
公开(公告)号:CN117408405A
公开(公告)日:2024-01-16
申请号:CN202311404822.1
申请日:2023-10-26
Applicant: 南京信息工程大学
IPC: G06Q10/047 , G06Q50/40 , G06F9/50 , G08G1/01 , G06N3/0455 , G06N3/084 , G06N3/094 , G06N3/098 , G06N3/092
Abstract: 本发明公开了一种基于交通算网的边缘算力解构及智能调度方法,包括步骤如下:S1,通过交通算网底层数据感知获取当前城市交通系统复杂节点的相关信息,并通过移动边缘算力解构方法对节点的相关信息进行处理分析;所述节点的相关信息包括通行车辆数量、车辆通行时间、车型排队长度、区域流量、断面流量、分类型流量;S2,通过对交通算网的多因子联合计算,自适应动态生成交通业务调度策略;通过基于强化学习的对抗性智能体优化策略来解决交通算网中的多因子最优规划问题,实现最优路径调度至算力节点。本发明能使得交通算网更好地适应交通系统的动态变化,并快速响应实时的交通需求和优化策略。
-
公开(公告)号:CN116883825A
公开(公告)日:2023-10-13
申请号:CN202310923588.7
申请日:2023-07-26
Applicant: 南京信息工程大学
IPC: G06V20/05 , G06V10/774 , G06V10/80 , G06V10/82
Abstract: 本发明公开了一种结合多模态数据融合和Multiplemix的水下目标检测方法,提出多模态数据融合,防止信息丢失的下采样网络SPDmix,卷积注意力融合网络CACmix,此外还提出新的损失函数和正负样本分配策略。该方法分别对输入的单模态RGB图像和单模态多光谱图像数据进行特征提取,并融合两种模态并输入到网络中,在下采样时,不丢弃特征,选择深度融合减少信息丢失。其次通过注意力融合机制赋予特征之间权重来侧重特征之间的交互,使网络学习局部特征的依赖关系。最后通过三个检测头来实现对目标的定位和分类。该发明能够减少网络特征提取过程中信息的丢失,有效的提高了网络的特征提取能力,实现了对水下目标更准确的检测。
-
公开(公告)号:CN117078551B
公开(公告)日:2024-08-09
申请号:CN202311073823.2
申请日:2023-08-24
Applicant: 南京信息工程大学
Abstract: 本发明提出了结合双分支核自适应和多尺度融合的水下图像增强方法,包括:将成对水下原始图像进行数据增强和归一化处理,获得成对水下图像;构建双分支核自适应模块和多尺度融合模块,获得深层次特征并对其进行有效融合;基于双分支核自适应模块和多尺度融合模块,构建水下图像增强的卷积神经网络,输出水下图像;设计目标损失函数;将成对水下图像作为训练集,获得训练后的水下图像增强的卷积神经网络;将待增强的成对水下原始图像进行归一化处理,输入训练完成的水下图像增强模型,得到增强的水下图像。本发明能对水下图像进行增强,有效地解决了色调恢复效果差的问题以及由卷积核引起的欠增强和过增强问题。
-
公开(公告)号:CN117253113A
公开(公告)日:2023-12-19
申请号:CN202311171486.0
申请日:2023-09-12
Applicant: 南京信息工程大学
Abstract: 本发明公开了一种基于车载相机多模态特征融合方法,包括步骤1:特征注意力阶段:构建分组特征交叉注意力机制网络,对特征图交叉定位空间信息,提取关键特征,得到特征注意力图,步骤2:特征融合阶段:构建动态特征重定义网络,将特征注意力图输入至动态特征重定义网络,根据输入特征图的相关性获得相似性得分,自适应地加权模态间相对应的特征得到重定义特征图;构建跨模态特征提取网络,将重定义的特征图输入至跨模态特征提取网络,融合另一模态的特征信息,得到双分支网络下一阶段的输出。本发明的多模态融合方法可以更好的利用车载相机的多模态特征信息,使特征提取网络有效学习目标的特征信息。
-
公开(公告)号:CN117078551A
公开(公告)日:2023-11-17
申请号:CN202311073823.2
申请日:2023-08-24
Applicant: 南京信息工程大学
Abstract: 本发明提出了结合双分支核自适应和多尺度融合的水下图像增强方法,包括:将成对水下原始图像进行数据增强和归一化处理,获得成对水下图像;构建双分支核自适应模块和多尺度融合模块,获得深层次特征并对其进行有效融合;基于双分支核自适应模块和多尺度融合模块,构建水下图像增强的卷积神经网络,输出水下图像;设计目标损失函数;将成对水下图像作为训练集,获得训练后的水下图像增强的卷积神经网络;将待增强的成对水下原始图像进行归一化处理,输入训练完成的水下图像增强模型,得到增强的水下图像。本发明能对水下图像进行增强,有效地解决了色调恢复效果差的问题以及由卷积核引起的欠增强和过增强问题。
-
-
-
-
-
-
-
-