-
公开(公告)号:CN114998630A
公开(公告)日:2022-09-02
申请号:CN202210844306.X
申请日:2022-07-19
Applicant: 北京科技大学
Abstract: 本发明公开了一种从粗到精的地对空图像配准方法,包括:S1,获取待配准的图像对;S2,采用模板匹配的方法对图像对进行配准,得到初步配准结果;S3,基于初步配准结果在目标图像中裁剪出感兴趣区域,采用深度学习的方法对源图像和裁剪出的感兴趣区域提取特征点并匹配,得到特征点匹配结果;S4,基于特征点匹配结果,采用基于随机抽样一致RANSAC的方法对图像对进行尺度对齐,然后对完成尺度对齐的图像对再次执行S3,得到新的特征点匹配结果;S5,重复执行S4预设次数,得到最终的配准结果。本发明的方法能够针对卫星影像和机载图像,实现不同视角下立体结构图像间的像素级配准,具有通用性。
-
公开(公告)号:CN114998605A
公开(公告)日:2022-09-02
申请号:CN202210503164.0
申请日:2022-05-10
Applicant: 北京科技大学
IPC: G06V10/44 , G06V10/764 , G06V10/82 , G06N3/04 , G06N3/08
Abstract: 本发明提供一种恶劣成像条件下图像增强引导的目标检测方法,属于图像增强和计算机目标检测技术领域。所述方法包括:在现有的目标检测网络基础上,加入增强网络分支,将目标检测网络主干网络的头部卷积层特征图和增强网络分支增强后的图像分别都进行最大池化和平均池化后,计算目标检测网络和增强网络分支总的损失函数L;将恶劣成像条件下获取的图像集分别输入目标检测网络和增强网络分支,利用损失函数L对目标检测网络和增强网络分支进行训练;将恶劣成像条件下获取的待检测的图像输入训练好的目标检测网络,输出目标检测结果。采用本发明,能够在提高目标检测的精度的同时,不会增加额外的计算负担。
-
公开(公告)号:CN118351307B
公开(公告)日:2024-12-24
申请号:CN202410456964.0
申请日:2024-04-16
Applicant: 北京科技大学
IPC: G06V10/26 , G06V10/82 , G06V10/96 , G06N3/0464 , G06N3/0455 , G06N3/08
Abstract: 本发明公开了一种多域注意力增强的三维点云语义分割方法及装置,涉及计算机视觉技术领域。包括:获取待分割的三维点云数据;将三维点云数据输入到训练好的多域注意力增强的三维点云语义分割模型;其中,三维点云语义分割模型包括卷积注意力编码器模块、Transformer编码器模块、卷积注意力解码器模块以及分割头模块;根据三维点云数据以及三维点云语义分割模型,得到三维点云语义分割结果。本发明设计了一种点云语义分割方法,其使用多域注意力,在控制运算成本的前提下增强网络分割性能,并形成自定义配置框架,方便用户控制模型训练等过程,并快速部署。
-
公开(公告)号:CN119027648A
公开(公告)日:2024-11-26
申请号:CN202411073120.4
申请日:2024-08-06
Applicant: 北京科技大学
IPC: G06V10/25 , G06V10/82 , G06N3/0455
Abstract: 本发明涉及有向目标检测领域,特别是指一种基于边界连续性感知高斯编码器的目标检测方法。所述方法包括:获取待进行有向目标检测的二维图像数据;将二维图像数据输入到构建好的有向目标检测器;其中,有向目标检测器包括边界连续性感知高斯编码器模块;根据二维图像数据以及边界连续性感知高斯编码器模块,得到周期连续的二维高斯分布,根据二维高斯分布得到二维有向检测框。本发明利用周期连续的二维高斯分布来描述有向二维矩形区域,从而可以消除边界不连续问题,提升检测精度。
-
公开(公告)号:CN118279786B
公开(公告)日:2024-11-22
申请号:CN202410229845.1
申请日:2024-02-29
Applicant: 北京科技大学
IPC: G06V20/40 , G06V10/62 , G06V10/82 , G06V40/20 , G06N3/0455 , G06N3/0464 , G06N3/08
Abstract: 本发明涉及计算机视觉技术领域,特别是指一种基于扩散模型的时序动作定位方法,方法包括:获取待处理的视频数据;将视频数据输入到时序特征提取器,得到视频数据的特征;将特征输入到构建好的多尺度的时序表征感知TRP编码器,得到视频特征的长期依赖时序特征信息;将长期依赖时序特征信息输入到训练好的扩散检测器模型,得到视频数据的时序动作定位结果。本发明设计了一种渐进且细化方法,使得精确的边界定位成为可行。并引入了一种时序建模方法,通过强化时序建模来捕捉特征的时序演变信息和长期依赖信息,从而进一步提升动作定位的准确性。
-
公开(公告)号:CN117893570B
公开(公告)日:2024-11-19
申请号:CN202410024017.4
申请日:2024-01-05
Applicant: 北京科技大学
IPC: G06T7/246 , G06T5/70 , G06N3/0455 , G06N3/08
Abstract: 本发明提供一种扩散模型赋予跟踪提议传播的多目标跟踪方法,应用于目标识别技术领域,包括:将所述连续的图像集或视频的每帧图像依次输入预训练的多目标跟踪模型,识别每一帧的跟踪目标,并获取所述跟踪目标对应的边界框,得到跟踪目标对应的轨迹。本发明能够显著提升了目标跟踪的检测和关联能力,保证在复杂场景中的跟踪能力。
-
公开(公告)号:CN117953029B
公开(公告)日:2024-06-07
申请号:CN202410356521.4
申请日:2024-03-27
Applicant: 北京科技大学
IPC: G06T7/50 , G06N3/0464 , G06N3/08
Abstract: 本发明涉及图像增强技术领域,特别是指一种基于深度信息传播的通用深度图补全方法及装置。基于深度信息传播的通用深度图补全方法包括:使用深度传感器对场景进行数据采集,获得稀疏深度图;使用彩色相机对场景进行数据采集,获得RGB图;采用预填充方法,对稀疏深度图进行深度填充,获得稠密深度图;将稀疏深度图、RGB图和稠密深度图,输入ResUNeT网络进行特征提取,获得亲和力图;根据稠密深度图以及亲和力图进行迭代传播,获得补全深度图。本发明是一种克服深度传感器分辨率不足的补全精度高、推理速度快的深度图补全方法。
-
公开(公告)号:CN118115913A
公开(公告)日:2024-05-31
申请号:CN202410204210.6
申请日:2024-02-23
Applicant: 北京科技大学
IPC: G06V20/40 , G06V10/62 , G06V10/774 , G06V10/82 , G06N3/0455 , G06N3/08
Abstract: 本发明涉及深度学习计算机视觉领域目标追踪领域,特别是指一种两阶段追踪方法及装置,方法包括:获取待进行目标追踪的视频数据,根据视频数据获取图像对;构建基础追踪模型,采用双向视觉引导训练方法、视频序列微调方法以及目标层级的随机擦除数据增强方法,对基础追踪模型进行训练,得到训练好的追踪模型;根据图像对以及训练好的追踪模型,得到目标追踪结果。本发明提出了一种两阶段的训练方式,能够在有效利用视频序列信息的同时不增加任何推理成本。除此之外,本发明提出了一种目标层级的随机擦除数据增强方案,能够很好模拟在追踪过程中出现的遮挡问题,使训练的追踪器更加鲁棒。
-
公开(公告)号:CN116662600B
公开(公告)日:2024-05-14
申请号:CN202310678818.8
申请日:2023-06-08
Applicant: 北京科技大学
IPC: G06F16/587 , G06T7/73 , G06V10/74
Abstract: 本发明公开了一种基于轻量结构化线地图的视觉定位方法,包括:通过图像检索,将查询图像与数据库图像进行图像匹配,根据图像匹配结果,找到与查询图像最相似的多个数据库图像,作为候选数据库图像;构建用于视觉定位的线地图;对所述查询图像和所述候选数据库图像进行线提取和匹配,构建二维到三维的线对应关系;基于构建的二维到三维的线对应关系,求解初始姿态;对求解出的初始姿态进行姿态迭代优化,得到最终的相机位姿。本发明可在较低的内存消耗下估计出较好的相机六自由度位姿,具有重大的应用前景和价值。
-
公开(公告)号:CN117893570A
公开(公告)日:2024-04-16
申请号:CN202410024017.4
申请日:2024-01-05
Applicant: 北京科技大学
IPC: G06T7/246 , G06T5/70 , G06N3/0455 , G06N3/08
Abstract: 本发明提供一种扩散模型赋予跟踪提议传播的多目标跟踪方法,应用于目标识别技术领域,包括:将所述连续的图像集或视频的每帧图像依次输入预训练的多目标跟踪模型,识别每一帧的跟踪目标,并获取所述跟踪目标对应的边界框,得到跟踪目标对应的轨迹。本发明能够显著提升了目标跟踪的检测和关联能力,保证在复杂场景中的跟踪能力。
-
-
-
-
-
-
-
-
-