-
公开(公告)号:CN120047471A
公开(公告)日:2025-05-27
申请号:CN202510498889.9
申请日:2025-04-21
Applicant: 北京科技大学
Abstract: 本发明提供一种基于提示的脑肿瘤交互式分割方法及系统,涉及图像分割技术领域,方法包括:获取包含多张切片的脑部图像并进行肿瘤标注;筛选肿瘤像素最多的切片作为提示图像;对提示图像中的肿瘤区域进行亮度增强处理,并提取二维特征;使用三维卷积神经网络提取脑部图像的三维特征,将二维和三维特征进行拼接融合,通过上采样层得到切片精细分割特征;提取标注图像特征,并将增强提示图像的提示信息与标注图像特征进行平均掩码池化,构建第一原型特征;计算三维特征与第一原型特征的相似度,并通过池化融合构建第二原型特征;结合第一原型、第二原型和切片精细分割特征进行特征匹配,得到肿瘤和非肿瘤区域的最终分割结果。
-
公开(公告)号:CN115879119B
公开(公告)日:2023-05-16
申请号:CN202310190344.2
申请日:2023-03-02
Applicant: 北京科技大学
IPC: G06F21/57 , G06V10/764 , G06V10/774 , G06V10/82 , G06N3/08
Abstract: 本发明公开了一种针对对抗通用补丁攻击的鲁棒视觉Transformer视觉感知方法及装置,涉及计算机视觉技术领域。包括:获取待分类的图像数据;将图像数据输入到构建好的视觉Transformer感知模型;其中,视觉Transformer感知模型包括限制令牌注意层;根据图像数据以及视觉Transformer感知模型,得到待分类的图像数据的分类结果。本发明所提出的视觉感知模型,通过对异常注意力的限制,结合高性能的视觉Transformer模型,构造了更鲁棒更高性能的视觉感知模型,在对抗精度方面明显优于以往的补丁防御方法,对干净样本的精度影响较小。
-
公开(公告)号:CN116737976A
公开(公告)日:2023-09-12
申请号:CN202310704495.5
申请日:2023-06-14
Applicant: 北京科技大学
IPC: G06F16/583 , G06F16/55 , G06F16/35 , G06F16/33 , G06F16/34 , G06N3/0464 , G06N3/0455 , G06N3/09
Abstract: 本发明公开了一种基于话题聚类和转移预测的图像段落释意方法,包括:将句子话题定义为句子嵌入空间中的簇,使用预设的聚类算法对训练数据中的句子进行聚类,根据聚类结果得到每个句子的离散的话题标签;对所有训练数据的话题标签进行统计归纳,构建话题转移概率矩阵;基于话题标签对预设的层次化图像段落释意模型进行监督训练;其中,所述图像段落释意模型通过利用所述话题转移概率矩阵中包含的话题衔接信息来生成语义连贯的段落描述;利用训练好的图像段落释意模型处理待释意图像,得到图像段落释意。本发明的技术方案提升了图像段落释意模型的释意性能,并提高了话题预测的可解释性。
-
公开(公告)号:CN118469831A
公开(公告)日:2024-08-09
申请号:CN202410611048.X
申请日:2024-05-16
Applicant: 北京科技大学
IPC: G06T5/50 , G06N3/0464
Abstract: 本发明涉及数字影像技术领域,特别是指一种基于注意力机制的鲁棒自监督多模态图像融合方法及装置。所述方法包括:使用拍摄设备进行图像采集,获取可见光源图像以及红外源图像;根据可见光源图像以及红外源图像进行焦点融合处理,获得焦点融合图;基于注意力机制以及Transformer网络结构进行模块构建,获得联合学习模块;基于焦点融合图,将可见光源图像以及红外源图像输入联合学习模块进行图像融合,获得第二融合图像;将第二融合图像输入预设的语义模型进行语义添加,获得第三融合图像。本发明是一种基于注意力机制的效率高、鲁棒性强的自监督多模态图像融合方法。
-
公开(公告)号:CN115879119A
公开(公告)日:2023-03-31
申请号:CN202310190344.2
申请日:2023-03-02
Applicant: 北京科技大学
IPC: G06F21/57 , G06V10/764 , G06V10/774 , G06V10/82 , G06N3/08
Abstract: 本发明公开了一种针对对抗通用补丁攻击的鲁棒视觉Transformer视觉感知方法及装置,涉及计算机视觉技术领域。包括:获取待分类的图像数据;将图像数据输入到构建好的视觉Transformer感知模型;其中,视觉Transformer感知模型包括限制令牌注意层;根据图像数据以及视觉Transformer感知模型,得到待分类的图像数据的分类结果。本发明所提出的视觉感知模型,通过对异常注意力的限制,结合高性能的视觉Transformer模型,构造了更鲁棒更高性能的视觉感知模型,在对抗精度方面明显优于以往的补丁防御方法,对干净样本的精度影响较小。
-
公开(公告)号:CN118469831B
公开(公告)日:2025-01-10
申请号:CN202410611048.X
申请日:2024-05-16
Applicant: 北京科技大学
IPC: G06T5/50 , G06N3/0464
Abstract: 本发明涉及数字影像技术领域,特别是指一种基于注意力机制的鲁棒自监督多模态图像融合方法及装置。所述方法包括:使用拍摄设备进行图像采集,获取可见光源图像以及红外源图像;根据可见光源图像以及红外源图像进行焦点融合处理,获得焦点融合图;基于注意力机制以及Transformer网络结构进行模块构建,获得联合学习模块;基于焦点融合图,将可见光源图像以及红外源图像输入联合学习模块进行图像融合,获得第二融合图像;将第二融合图像输入预设的语义模型进行语义添加,获得第三融合图像。本发明是一种基于注意力机制的效率高、鲁棒性强的自监督多模态图像融合方法。
-
公开(公告)号:CN116737976B
公开(公告)日:2024-12-06
申请号:CN202310704495.5
申请日:2023-06-14
Applicant: 北京科技大学
IPC: G06F16/583 , G06F16/55 , G06F16/35 , G06F16/33 , G06F16/34 , G06N3/0464 , G06N3/0455 , G06N3/09
Abstract: 本发明公开了一种基于话题聚类和转移预测的图像段落释意方法,包括:将句子话题定义为句子嵌入空间中的簇,使用预设的聚类算法对训练数据中的句子进行聚类,根据聚类结果得到每个句子的离散的话题标签;对所有训练数据的话题标签进行统计归纳,构建话题转移概率矩阵;基于话题标签对预设的层次化图像段落释意模型进行监督训练;其中,所述图像段落释意模型通过利用所述话题转移概率矩阵中包含的话题衔接信息来生成语义连贯的段落描述;利用训练好的图像段落释意模型处理待释意图像,得到图像段落释意。本发明的技术方案提升了图像段落释意模型的释意性能,并提高了话题预测的可解释性。
-
-
-
-
-
-