-
公开(公告)号:CN118038095A
公开(公告)日:2024-05-14
申请号:CN202410151230.1
申请日:2024-02-02
Applicant: 北京科技大学
IPC: G06V10/75 , G06V10/74 , G06V10/26 , G06V10/80 , G06V10/82 , G06V10/44 , G06N3/045 , G06N3/0464 , G06N3/084
Abstract: 本发明公开了一种基于分割大模型与注意力融合的图像匹配方法和装置,属于图像匹配技术领域,所述方法包括:通过骨干网络确定待匹配图像对间的相似度图;通过分割大模型对待匹配图像对进行全图像区域分割;将所述相似度图用于分割后的图像区域,得到前景匹配区域对;将前景匹配区域对以及所述骨干网络输出的低分辨率特征图对输入融合注意力模块,得到相似区域图像特征图对;计算所述相似区域图像特征图对的相似性,确定粗匹配特征点;并依据所述高分辨率特征图对和所述粗匹配特征点,确定图像匹配点结果。本申请提供的基于分割大模型与注意力融合的图像匹配方案,能够有效提高图像匹配精度。
-
公开(公告)号:CN117237475A
公开(公告)日:2023-12-15
申请号:CN202311024393.5
申请日:2023-08-14
Applicant: 北京科技大学
IPC: G06T11/20 , B60W60/00 , G06N3/0464 , G06N3/042 , G06N3/0475 , G06N3/0455 , G06N3/08 , G06V10/44 , G06V10/62 , G06V10/30 , G06V10/82
Abstract: 本发明公开了一种基于扩散生成模型的车辆交通轨迹生成方法及装置,涉及交通场景生成技术和自动驾驶技术领域。包括:对于待生成轨迹的任意全新无轨迹地图场景,根据地图场景所需生成的轨迹数量以及轨迹所需时间跨度得到纯噪声,将纯噪声作为初始中心位置和初始速度;将初始中心位置和初始速度输入到训练好的噪声预测网络;根据初始中心位置、初始速度以及噪声预测网络,得到预测的中心位置噪声和相对位置噪声,进而得到地图场景的车辆交通轨迹。本发明能够生成更长且完整的在不同场景接近真实分布的驾驶轨迹,丰富已有的数据集,为自动驾驶轨迹预测模型训练和大规模自动驾驶系统评估提供数据支撑,提高自动驾驶决策算法的可靠性和准确性。
-
公开(公告)号:CN117057985A
公开(公告)日:2023-11-14
申请号:CN202310891103.0
申请日:2023-07-20
Applicant: 北京科技大学
IPC: G06T3/40 , G06V10/764 , G06V10/774 , G06V10/82 , G06N3/0464 , G06N3/08 , G06T5/50
Abstract: 本发明公开了一种基于隐式神经网络的图像超分辨率重建方法及装置,该方法包括:构建样本数据集;所述样本数据集包括多组训练图像组,每一训练图像组均包括第一图像和第二图像,其中,所述第二图像为所述第一图像的超分图像;在隐式神经网络增加双阶段注意力机制,构建图像超分辨率重建模型;基于所述样本数据集对所述图像超分辨率重建模型进行训练;获取待处理图像,将待处理图像输入训练好的图像超分辨率重建模型,利用训练好的图像超分辨率重建模型对待处理图像进行处理,得到重建后的图像。本发明解决了目前图像超分辨率重构精度提升问题,并且可以实现任意尺度超分辨率重建。
-
公开(公告)号:CN117009787A
公开(公告)日:2023-11-07
申请号:CN202311029806.9
申请日:2023-08-15
Applicant: 北京科技大学 , 宁波弗浪科技有限公司
IPC: G06F18/213 , G06F40/30 , G06F16/29 , G06N3/0455 , G06N3/045 , G06N3/09
Abstract: 本发明涉及轨迹预测技术领域,特别是指一种跨模态语义信息监督的轨迹预测方法及装置。一种跨模态语义信息监督的轨迹预测方法包括采集车辆信息、行驶信息和地图信息,获得语义监督信息以及未来轨迹真值信息;根据地图特征和历史轨迹特征获得全局背景信息特征;根据未来轨迹特征进行映射变换,获得距真值最近预测轨迹特征;根据语义特征、全局背景信息特征和距真值最近预测轨迹特征,对待训练语义监督轨迹预测模型进行对比学习训练,基于未来轨迹真值信息,获得语义监督轨迹预测模型,根据语义监督轨迹预测模型进行轨迹预测。本发明是一种针对场景语义信息的准确、高效的语义监督轨迹预测方法。
-
公开(公告)号:CN111210422B
公开(公告)日:2023-03-24
申请号:CN202010033737.9
申请日:2020-01-13
Applicant: 北京科技大学
Abstract: 本发明提供一种基于红外图像的对空目标检测方法,能够较为有效地对红外图像序列中的对空小目标进行检测。所述方法包括:提取红外图像各像素点邻域的对比度特征,生成对比度图像;提取红外图像各像素点的邻域亮度差分特征,生成邻域亮度差分图像;融合对比度图像和邻域亮度差分图像;对融合后的图像进行置零操作的双阈值处理,提取目标位置。本发明适用于基于红外图像的对空目标检测。
-
公开(公告)号:CN114821128B
公开(公告)日:2022-09-09
申请号:CN202210720448.5
申请日:2022-06-24
Abstract: 本发明公开了一种尺度自适应的模板匹配方法,包括:获取不同角度的同一场景的两幅图像,在其中一幅中手工框取感兴趣图像块作为模板图像,另一幅作为搜索图像;将模板图像和搜索图像输入特征提取网络,获取对应的特征图FT和FIS;计算归一化后的FT和FIS各像素之间的相似性,获取相似性度量图;产生自适应多尺度候选框;生成均值滤波后的相似性度量图;在搜索图像中选取出候选图像块;获取任一候选图像块和模板的特征描述;计算模板的特征描述符与任一候选图像块的特征描述符的相似性;将相似性最大的特征描述符所对应的候选图像块作为模板图像最终的匹配结果。本发明可自适应产生目标框,且适用于视角变化较大的立体结构的图像匹配问题。
-
公开(公告)号:CN114998630A
公开(公告)日:2022-09-02
申请号:CN202210844306.X
申请日:2022-07-19
Applicant: 北京科技大学
Abstract: 本发明公开了一种从粗到精的地对空图像配准方法,包括:S1,获取待配准的图像对;S2,采用模板匹配的方法对图像对进行配准,得到初步配准结果;S3,基于初步配准结果在目标图像中裁剪出感兴趣区域,采用深度学习的方法对源图像和裁剪出的感兴趣区域提取特征点并匹配,得到特征点匹配结果;S4,基于特征点匹配结果,采用基于随机抽样一致RANSAC的方法对图像对进行尺度对齐,然后对完成尺度对齐的图像对再次执行S3,得到新的特征点匹配结果;S5,重复执行S4预设次数,得到最终的配准结果。本发明的方法能够针对卫星影像和机载图像,实现不同视角下立体结构图像间的像素级配准,具有通用性。
-
公开(公告)号:CN114998605A
公开(公告)日:2022-09-02
申请号:CN202210503164.0
申请日:2022-05-10
Applicant: 北京科技大学
IPC: G06V10/44 , G06V10/764 , G06V10/82 , G06N3/04 , G06N3/08
Abstract: 本发明提供一种恶劣成像条件下图像增强引导的目标检测方法,属于图像增强和计算机目标检测技术领域。所述方法包括:在现有的目标检测网络基础上,加入增强网络分支,将目标检测网络主干网络的头部卷积层特征图和增强网络分支增强后的图像分别都进行最大池化和平均池化后,计算目标检测网络和增强网络分支总的损失函数L;将恶劣成像条件下获取的图像集分别输入目标检测网络和增强网络分支,利用损失函数L对目标检测网络和增强网络分支进行训练;将恶劣成像条件下获取的待检测的图像输入训练好的目标检测网络,输出目标检测结果。采用本发明,能够在提高目标检测的精度的同时,不会增加额外的计算负担。
-
公开(公告)号:CN119169048A
公开(公告)日:2024-12-20
申请号:CN202411058651.6
申请日:2024-08-02
Applicant: 北京科技大学
IPC: G06T7/246 , G06N3/0464 , G06N3/0455 , G06N3/08
Abstract: 本发明涉及多模态学习技术领域,特别是指一种双重模态增强机制的RGB‑T跟踪方法及装置,方法包括:构建初始多模态目标跟踪模型,初始多模态目标跟踪模型包括两个并行的ViT骨干网络、初始红外感知适配器、初始跨模态融合适配器、RGB预测头、红外预测头以及响应图解耦蒸馏响应模块;根据训练样本以及预设的损失函数,对初始多模态目标跟踪模型进行训练优化,得到训练好的多模态目标跟踪模型,包括Transformer骨干网络、红外感知适配器、跨模态融合适配器、RGB预测头以及红外预测头;获取待识别数据,将待识别RGB图像以及待识别红外图像输入到多模态目标跟踪模型,得到待识别数据对应的跟踪结果。采用本发明,可以提高目标跟踪的精准度。
-
公开(公告)号:CN118279786A
公开(公告)日:2024-07-02
申请号:CN202410229845.1
申请日:2024-02-29
Applicant: 北京科技大学
IPC: G06V20/40 , G06V10/62 , G06V10/82 , G06V40/20 , G06N3/0455 , G06N3/0464 , G06N3/08
Abstract: 本发明涉及计算机视觉技术领域,特别是指一种基于扩散模型的时序动作定位方法,方法包括:获取待处理的视频数据;将视频数据输入到时序特征提取器,得到视频数据的特征;将特征输入到构建好的多尺度的时序表征感知TRP编码器,得到视频特征的长期依赖时序特征信息;将长期依赖时序特征信息输入到训练好的扩散检测器模型,得到视频数据的时序动作定位结果。本发明设计了一种渐进且细化方法,使得精确的边界定位成为可行。并引入了一种时序建模方法,通过强化时序建模来捕捉特征的时序演变信息和长期依赖信息,从而进一步提升动作定位的准确性。
-
-
-
-
-
-
-
-
-