-
公开(公告)号:CN118486026A
公开(公告)日:2024-08-13
申请号:CN202410465326.5
申请日:2024-04-18
Applicant: 东北大学 , 江苏曙光光电有限公司
IPC: G06V20/70 , G06V10/44 , G06V10/80 , G06V10/82 , G06F16/535 , G06N3/042 , G06N3/045 , G06N3/0464 , G06N3/0455 , G06N3/0985
Abstract: 本发明属于场景识别技术领域,公开了一种基于多模态特征与图注意力机制的场景识别方法。首先采用双支路的特征提取模块分别捕获RGB特征和深度特征,之后设计基于Transformer的共享的特征融合模块来充分交互细节信息与结构信息构建鲁棒的多模态特征,并使用NetVLAD层池化获取全局场景描述子。考虑到图像序列间的上下文信息对场景识别有良好的判别作用,本发明还设计了基于时间约束的图注意力聚合模块来整合描述子的空间信息和时间信息实现对场景描述子的进一步精炼。该发明能够有效的解决场景识别任务中出现的视角,光线或季节变化等问题,以服务于无人驾驶和大规模视觉定位等应用场景。
-
公开(公告)号:CN118675126A
公开(公告)日:2024-09-20
申请号:CN202410489872.2
申请日:2024-04-23
Applicant: 东北大学 , 江苏曙光光电有限公司
Abstract: 本发明提供一种基于语义边界约束的注意力引导视觉场景识别方法,涉及计算机视觉技术领域,本发明通过获取输入图像,提取所述输入图像的局部描述子;根据所述局部描述子和输入图像,提取所述图像的全局描述子;计算所述全局描述子之间的相似度,在数据库中得到相似度最接近的多个图像;基于所述局部描述子对所述多个图像进行重排序,得到最接近输入图像的目标图像。本方法在统一框架内完成结构信息编码和外观不变描述子的提取。利用优化后的描述子计算图像之间的相似度,完成准确的视觉场景识别,提升了机器人在大尺度场景下的视觉定位准确性,有助于开展更智能化的视觉导航等工作。
-
公开(公告)号:CN118351506A
公开(公告)日:2024-07-16
申请号:CN202410444962.X
申请日:2024-04-15
Applicant: 东北大学 , 江苏曙光光电有限公司
IPC: G06V20/56 , G06V10/44 , G06N3/0455 , G06N3/048 , G06F16/53 , G06F16/538 , G06F16/587 , G06N3/0464 , G06N3/08
Abstract: 本发明属于计算机视觉及机器人技术领域,公开了一种基于空间—通道编码与特征过滤的视觉场景识别方法。图像经数据增强后形成若干个图像三元组;图像三元组经统一的特征提取网络进行特征提取,得到图像的全局特征与局部特征;图像的全局特征经过SCE模块优化后用于全局检索得到初步的全局检索结果;图像的局部特征经过混合注意力层后经NCGM模块进而对全局检索结果进行重新排序得到最终的检索结果,实现视觉场景识别。本发明针对全局特征的空间—通道特征编码、局部特征的邻域一致性引导进行网络结构的设计及训练,利用重新排序后的图像检索结果完成准确的视觉场景识别。极大提升复杂环境下视觉场景识别准确性的同时降低了时间与内存消耗。
-
公开(公告)号:CN116524028A
公开(公告)日:2023-08-01
申请号:CN202310580112.8
申请日:2023-05-23
Applicant: 东北大学
IPC: G06T7/73 , G06T7/13 , G06V10/42 , G06V10/44 , G06V10/74 , G06V10/774 , G06V10/82 , G06N3/0464 , G06N3/096
Abstract: 本发明提供一种基于结构感知与多任务蒸馏的长期视觉定位方法,涉及视觉定位技术领域。本发明首先利用边缘检测算法获取场景中鲁棒的结构信息,然后将结构信息以知识蒸馏的方式融入到视觉定位的网络模型中,同时网络主体采用多任务蒸馏的方法使用轻量级的模型学习局部特征与全局特征的提取,在保证精度的同时大幅缩短了分层定位的特征提取时间。该发明能够有效的应对长周期视觉定位过程中出现的视角,光线或季节变化等问题,以服务于无人驾驶和大规模视觉定位等应用场景。
-
公开(公告)号:CN116452788A
公开(公告)日:2023-07-18
申请号:CN202310434272.1
申请日:2023-04-21
Applicant: 东北大学
IPC: G06V10/10 , G06V10/40 , G06V10/774 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明提供一种极度轻量级的实时显著性目标检测方法,涉及目标检测技术领域。本发明首先提出了一种新颖的小波变换模块WTM,它通过融合小波变换理论和CNN实现特征下采样。通过WTM的级联构建编码器,使用有限的参数实现高质量的多级编码,同时无需进行预训练操作。然后提出了一种新颖的小波变换融合模块WTFM,它可以通过小波变换、CNN和一种残差机制实现特征上采样和融合操作。通过WTFM级联构建解码器,实现高质量解码,最终只需要通过常规的BCE+IOU混合损失函数就可以实现模型的高质量训练。该发明凭借其极度轻量化程度、较好的准确率和较高的串行数据处理实时性可以轻易的嵌入到其他计算机视觉任务中以提高他们的性能,不再受到计算资源的限制。
-
公开(公告)号:CN116524028B
公开(公告)日:2025-05-13
申请号:CN202310580112.8
申请日:2023-05-23
Applicant: 东北大学
IPC: G06T7/73 , G06T7/13 , G06V10/42 , G06V10/44 , G06V10/74 , G06V10/774 , G06V10/82 , G06N3/0464 , G06N3/096
Abstract: 本发明提供一种基于结构感知与多任务蒸馏的长期视觉定位方法,涉及视觉定位技术领域。本发明首先利用边缘检测算法获取场景中鲁棒的结构信息,然后将结构信息以知识蒸馏的方式融入到视觉定位的网络模型中,同时网络主体采用多任务蒸馏的方法使用轻量级的模型学习局部特征与全局特征的提取,在保证精度的同时大幅缩短了分层定位的特征提取时间。该发明能够有效的应对长周期视觉定位过程中出现的视角,光线或季节变化等问题,以服务于无人驾驶和大规模视觉定位等应用场景。
-
公开(公告)号:CN118260441A
公开(公告)日:2024-06-28
申请号:CN202410520776.X
申请日:2024-04-28
Applicant: 东北大学 , 江苏曙光光电有限公司
IPC: G06F16/535 , G06N3/08 , G06V10/40 , G06V10/774 , G06V10/776 , G06V10/74 , G06V10/82
Abstract: 本发明提供一种基于样本挖掘策略和位置一致性验证的场景识别方法,涉及计算机视觉及机器人技术领域。该方法具体包括:获取查询图像和数据库图像并输入预训练的深度神经网络进行特征提取,进而计算查询图像与数据库图像的全局距离和局部距离;基于查询图像与数据库图像的全局距离和局部距离,获取查询图像的最佳正样本和绝对负样本,并构建训练三元组对深度神经网络进行训练得到最终的深度神经网络;利用得到的深度神经网络对查询图像重新进行全局特征提取并计算全局距离,进而从数据库图像中选出K个候选帧图像并采用基于位置一致性验证的重排序算法进行筛选,得到最终匹配图像,从而在视觉场景识别任务中用于提升场景图像的匹配精度。
-
-
-
-
-
-