三重注意力无监督车辆重识别方法、系统、设备及介质

    公开(公告)号:CN119007138A

    公开(公告)日:2024-11-22

    申请号:CN202411487950.1

    申请日:2024-10-24

    Applicant: 安徽大学

    Abstract: 本发明提供三重注意力无监督车辆重识别方法、系统、设备及介质,方法包括:将多个基准车辆图像和待查车辆图像,输入至重识别模型中的特征提取网络,将基准车辆图像对应的第一特征、第二特征和第三特征形成目标特征,将待查车辆图像对应的第一特征、第二特征和第三特征形成待查特征;根据目标特征和待查特征,通过重识别模型中的分类网络确定待查车辆图像和各个基准车辆图像之间的特征综合相似度;根据特征综合相似度,通过重识别模型中的分类网络从多个基准车辆图像中,选取与待查车辆图像之间的特征综合相似度满足预设匹配条件的车辆图像。本发明可提高车辆重识别的准确性。

    词语索引模型和医学报告的生成方法、系统、设备和介质

    公开(公告)号:CN118398154A

    公开(公告)日:2024-07-26

    申请号:CN202410804636.5

    申请日:2024-06-21

    Applicant: 安徽大学

    Abstract: 本发明提供一种词语索引模型和医学报告的生成方法、系统、设备和介质。模型生成方法包括:获取医学影像集和对应的医学报告集,以及文本索引表和医学术语集;对医学报告集和医学术语集索引化处理,得到医学报告索引集和医学术语索引集;输入医学影像集至特征提取网络提取医学影像特征;将医学术语索引集和初始文本输入词嵌入网络获取文本特征和医学术语特征;将文本特征和医学术语特征、医学影像特征和医学术语特征输入融合网络得到对齐融合特征;输入对齐融合特征至预测网络得到预测文本序列集合;根据预测文本序列集合与索引化后的医学报告的差异度,更新模型参数,得到训练好的词语索引模型。提升了医学报告的准确度。

    一种基于多尺度门控密集连接的工厂足迹提取方法及系统

    公开(公告)号:CN113705463B

    公开(公告)日:2024-02-20

    申请号:CN202111003067.7

    申请日:2021-08-30

    Applicant: 安徽大学

    Abstract: 一种基于多尺度门控密集连接的工厂足迹提取方法及系统,属于图像处理技术领域,解决如何通过引入引导模块以及密集连接来处理工厂的多尺度的问题,通过设计引导模块来缓解编码特征和解码特征之间的差异性影响,结合编码器和解码器特征的优势去引导编码特征的信息选择,弥补不同层级特征之间的差异性,将密集连接作用在编码器和解码器上,结合了不同尺度的低层细节信息和高层语义信息,进而获得多尺度的特征表示能力,更好的利用了低层特征的细节信息和高层特征的语义信息,同时使用自适应融合获取最终的解码特征,提升了遥感工厂足迹提取的精度。

    基于时序注意力的在线手卫生评估方法及系统

    公开(公告)号:CN116704609A

    公开(公告)日:2023-09-05

    申请号:CN202310698849.X

    申请日:2023-06-12

    Applicant: 安徽大学

    Abstract: 本发明公开了基于时序注意力的在线手卫生评估方法及系统,所述方法包括:获取在线洗手视频流,通过编码器和解码器分别建模各类时序特征;使用时序注意力来增强和融合各类时序特征,得到融合特征;对融合特征进行动作分类并对初始特征进行分割,得到各个洗手动作的时序特征及其对应的动作类别,作为动作特征;将动作特征通过第一全局最大池化层进行汇集得到根特征,由两个不同的第一全连接层线性映射到两个子特征中,后续各层特征的处理方法相同,最后使用MLP对最后一层的所有特征进行回归,得到每个洗手动作的得分,将当前视频流中的各个洗手动作得分相加得到最终的预测得分;本发明的优点在于:提高评估结果的准确性。

    一种融合梯度图的镂空目标检测方法

    公开(公告)号:CN116385766A

    公开(公告)日:2023-07-04

    申请号:CN202310173316.X

    申请日:2023-02-28

    Applicant: 安徽大学

    Abstract: 本发明公开一种融合梯度图的镂空目标检测方法,制作镂空物体数据集,对原图处理获得梯度图;将原图和梯度图同时送入两个目标检测网络得到原图特征和对应梯度图特征;将原图特征和梯度图特征通过轻量级梯度注意力模块进行融合,将得融合特征继续进行网络前向传播最终得到目标的边界框信息和类别信息;不断迭代获得最优目标检测模型;将待识别的图像输入至最优目标检测模型,计算输出置信度大于阈值的分类结果作为待检测图像的识别结果。本发明通过梯度注意力模块使用梯度信息来增强原图中的镂空物体特征,使网络能够学习到更有意义的特征。同时,本发明可以很容易地被推广到各种检测框架中,从而使几乎所有镂空目标的检测都得到改善。

    基于提示微调预训练大模型的行人属性识别方法

    公开(公告)号:CN116259075A

    公开(公告)日:2023-06-13

    申请号:CN202310081570.7

    申请日:2023-01-16

    Applicant: 安徽大学

    Abstract: 一种基于提示微调预训练大模型的行人属性识别方法,属于计算机视觉技术领域,解决现有技术中没有充分利用行人图像与属性标签之间的关系而导致的次优以及泛化能力差的问题。本发明采用CLIP的视觉和文本编码器提取图像特征和属性特征,通过多模态Transformer模块对两个模态特征融合后,经过前馈网络得到预测结果,通过将行人属性识别问题建模为视觉语言融合问题,使用预训练的视觉语言大模型作为主干网络,提取模态间联系更好的视觉和文本特征,再通过多模态的Transformer建模视觉和文本之间的联系,充分利用了属性语义信息,并且可以看出通过提示微调的方式保留了预训练大模型较好的泛化能力,模型实用性更强。

    一种面向弱配准数据的可见光热红外视觉跟踪方法

    公开(公告)号:CN116205959A

    公开(公告)日:2023-06-02

    申请号:CN202310075035.0

    申请日:2023-01-16

    Applicant: 安徽大学

    Abstract: 一种面向弱配准数据的可见光热红外视觉跟踪方法,属于计算机视觉技术领域,解决多模态跟踪器对配准数据的依赖的问题;本发明的方法引入渐进式特征配准模块实现模态特征级配准,配准后的多模态特征进一步通过transformer融合模块实现特征融合,利用融合特征输入到模型预测器取得当前帧的最优的预测模型,与全图特征进行卷积操作以获得得分权重图,响应值高的位置则代表目标的预测位置,同时通过调制向量模块进行包围框的选取,完成对当前帧目标的准确定位;本发明的方法可以在不依赖严格配准的多模态数据下挖掘可见光和热红外模态的互补信息,有效实现了可见光和热红外之间的模态互补,进一步提高多模态目标跟踪的准确率。

    基于跨模态增强的多模态自适应融合方法及系统

    公开(公告)号:CN116127408A

    公开(公告)日:2023-05-16

    申请号:CN202310162234.5

    申请日:2023-02-21

    Applicant: 安徽大学

    Abstract: 本发明提供基于跨模态增强的多模态自适应融合方法及系统,方法包括:用N个二分类器训练基于学习的网络,作为基于分类的权重预测模块,用于预测不同模态的可靠性权重权重,以取代原始回归器。每个二分类器由全局平均池化层和两个分别具有ReLU激活函数和Sigmoid激活函数的全连接层组成;从骨干网中提取的模态特征作为输入,然后通过两个由1×1卷积层组成的并行结构对其进行调制,分别发挥特征的缩放和位移作用,指导另一个模态学习更多判别特征;针对两个模态的训练数据,即A模态分支、B模态分支分支和A‑B模态混合分支,对这三个分支网络进行离线训练。发明解决了融合效果较差、融合时权重学习准确率较低、多模态特征自适应融合权重估计不可靠的技术问题。

    基于跨模态共享和特定表示形式的RGBT目标跟踪方法

    公开(公告)号:CN113077491B

    公开(公告)日:2023-05-02

    申请号:CN202110359997.X

    申请日:2021-04-02

    Applicant: 安徽大学

    Abstract: 本发明公开一种基于跨模态共享和特定表示形式的RGBT目标跟踪方法,对可见光视频和对应的热红外视频进行配准和标注,按照要求将其分成训练集和测试集;利用VGG‑M网络来提取不同模态的模态特定特征,利用共享特征提取模块来提取两个模态之间的模态共享特征,同时在共享特征提取模块中使用多尺度特征融合的策略来增强特征以提高其鲁棒性。本发明在光照变化强烈、夜晚等极端条件下跟踪上目标,通过焦点损失函数使训练的模型更加关注于难以分类的样本,提高模型的鲁棒性。

Patent Agency Ranking