-
公开(公告)号:CN116740605A
公开(公告)日:2023-09-12
申请号:CN202310671246.0
申请日:2023-06-06
Applicant: 安徽大学
IPC: G06V20/40 , G06V10/80 , G06V10/82 , G06V10/42 , G06V10/62 , G06N3/0464 , G06N3/045 , G06N3/048 , G06N3/08
Abstract: 本发明涉及事件相机技术领域,具体涉及一种事件识别方法包括:获取待识别事件流;预处理得到所述待识别事件流对应的事件帧,预处理得到所述待识别事件流对应的图数据;构建双模态融合网络初始模型;提取事件帧的时空特征,及图数据的全局表征,并将所述时空特征和全局表征进行拼接融合,以使所述双模态融合网络初始模型学习双模态的统一特征,以获取训练完成的双模态融合网络模型;利用双模态融合网络模型进行事件识别。本发明通过构建双模态融合网络,能够更好的挖掘双模态的有效的原始信息,学习双模态数据的统一特征,通过将事件流转化为事件帧和图数据,有效的保留了原始信息,通过将时空特征和全局表征拼接融合来提高事件识别的性能。
-
公开(公告)号:CN114330516A
公开(公告)日:2022-04-12
申请号:CN202111534376.7
申请日:2021-12-15
Applicant: 安徽大学
IPC: G06K9/62 , G06N3/08 , G06V10/764
Abstract: 本发明公开一种基于多图引导神经网络模型的小样本徽景图像分类,基于不同层次(view)多图引导神经网络模型的特征,对不同层次的图像特征信息进行建模,同时引入对于不同样本进行关系建模的图卷积神经网络,通过样本间特征传播拉近同类样本远离不同类样本使得样本特征更具有判别力。本发明可以有效地解决小样本复杂的徽景图像分类问题,其模型架构主要包括四个方面:利用深度网络提取徽景图像不同层次view的特征,基于不同层次view的全局特征表示进行图的构建,分别对不同层次view特征进行图的卷积表示,基于多图引导的特征对查询样本进行分类。
-
公开(公告)号:CN113011324A
公开(公告)日:2021-06-22
申请号:CN202110290895.7
申请日:2021-03-18
Applicant: 安徽大学
Abstract: 本发明公开了基于特征图匹配和超像素图排序的目标跟踪方法及装置,所述方法包括:提取连续两帧的图像对的特征并进行特征点匹配;对前一帧图像进行超像素以及对当前帧图像进行超像素分割;确定超像素图排序的指示向量,使用半监督的图排序技术得到当前帧图像的排序结果,进而获得当前帧图像的二进制分割掩码;根据当前帧图像的二进制分割掩码对目标进行定位和跟踪;本发明的优点在于:目标跟踪过程中将分割和跟踪一体化,实现更便捷的分割与跟踪功能。
-
公开(公告)号:CN104219267B
公开(公告)日:2017-08-25
申请号:CN201310218008.0
申请日:2013-06-04
Applicant: 安徽大学
Abstract: 本发明实施例公开了一种隐私保护的统计车辆数量的方法及装置,属于车联网技术领域。方法包括:将OBU的最大数量设为f;根据OBU的最大数量与f的比值计算与各个OBU的通信次数n,并根据每次通信结果得到第一非空白时隙前的空白时隙的数量,根据得到的n个第一非空白时隙前的空白时隙的数量计算车辆数量本发明通过OBU发送信息的第一非空白时隙前空白时隙的数量计算车辆数量,替代了通过对OBU身份认证的方式统计车辆数量,可以在计数的同时,实现对车辆身份隐私的保护;同时,将OBU的最大数量设为f,降低了OBU的最大数量与f的比值,减少了OBU与RSU之间通信的次数,缩短了车辆数量统计的时间。
-
公开(公告)号:CN118821900B
公开(公告)日:2025-02-18
申请号:CN202410932383.X
申请日:2024-07-12
Applicant: 安徽大学 , 安徽医科大学第一附属医院
IPC: G06N3/0895 , G06N3/0455 , G06V10/44 , G06F40/126 , G06F40/279 , G06V10/82 , G06F18/25 , G16H15/00
Abstract: 本发明公开一种基于视觉‑语言多模态对比学习的超声图像预训练方法,通过单模态局部对比学习与多模态局部对比学习实现特征对齐,并创造性地提出自监督预训练方法,该方法使用医学超声图像数据与诊断报告文本数据学习输入图像和报告文本的单模态和多模态特征表示,利用单模态对比损失与多模态对比损失对齐图像与文本特征。本发明考虑到超声图像与诊断报告的特点,本发明采用局部对比学习的方式来细粒度对齐图像与文本特征。本发明以掩码语言建模和图像文本匹配作为预训练目标进行预训练。
-
公开(公告)号:CN118071804B
公开(公告)日:2024-11-26
申请号:CN202410194034.2
申请日:2024-02-21
Applicant: 安徽大学
Abstract: 一种基于混合变形的多模态遥感图像配准方法及存储介质,属于计算机视觉技术领域,解决复杂变形场景下的多模态图像配准问题,获取待配准的不同模态的遥感图像对,利用掩码学习的特征提取器获得图像特征,将图像特征送入刚性配准模型,获取变换参数和粗配准结果,将粗配准结果和目标图像再次经过特征提取器处理,将图像特征送入非刚性配准模型获取变换参数,对原始待配准图像进行处理获得配准结果,计算变换参数误差和重投影误差,根据误差更新模型参数,使用联合配准网络对图像进行处理得到配准的结果,计算图像的角点误差损失;本发明将刚性配准和非刚性配准方法结合在一起对遥感图像进行配准,采用双向配准策略来增加模型的鲁棒性和准确性。
-
公开(公告)号:CN118864383A
公开(公告)日:2024-10-29
申请号:CN202410883238.7
申请日:2024-07-03
Applicant: 安徽大学 , 安徽医科大学第一附属医院
IPC: G06T7/00 , A61B8/00 , G06T7/13 , G06T5/10 , G06T5/20 , G06N3/0455 , G06N3/049 , G06N3/0464 , G06N3/0895
Abstract: 本发明公开一种基于边缘掩码和时序差分的超声视频基础模型的训练方法,先通过小波变换减少超声图像中的斑点噪声,然后使用canny算法对前两帧和后两帧边缘区域进行掩码,同时对中间两帧进行完全掩码,接着利用运动差分注意力模块,通过掩码之后的前两张帧和后两帧进行初始特征重建;最后,将特征一起送入到解码器当中进行视频序列的重建并计算损失,通过多次迭代训练获得最终的训练权重。
-
公开(公告)号:CN118821900A
公开(公告)日:2024-10-22
申请号:CN202410932383.X
申请日:2024-07-12
Applicant: 安徽大学 , 安徽医科大学第一附属医院
IPC: G06N3/0895 , G06N3/0455 , G06V10/44 , G06F40/126 , G06F40/279 , G06V10/82 , G06F18/25 , G16H15/00
Abstract: 本发明公开一种基于视觉‑语言多模态对比学习的超声图像预训练方法,通过单模态局部对比学习与多模态局部对比学习实现特征对齐,并创造性地提出自监督预训练方法,该方法使用医学超声图像数据与诊断报告文本数据学习输入图像和报告文本的单模态和多模态特征表示,利用单模态对比损失与多模态对比损失对齐图像与文本特征。本发明考虑到超声图像与诊断报告的特点,本发明采用局部对比学习的方式来细粒度对齐图像与文本特征。本发明以掩码语言建模和图像文本匹配作为预训练目标进行预训练。
-
公开(公告)号:CN118692632A
公开(公告)日:2024-09-24
申请号:CN202410705138.5
申请日:2024-06-03
Applicant: 安徽大学 , 安徽中医药大学第一附属医院(安徽省中医院) , 安徽医科大学
IPC: G16H30/00 , G16H15/00 , G06F18/24 , G06F18/214 , G06N3/0455 , G06N3/0464 , G06N3/0895 , G06F17/16 , G06F17/18
Abstract: 本发明公开一种基于中文大语言模型的医学影像质量控制方法,先使用基于自监督学习的掩码自编码器对视觉编码器进行预训练,使用包含标签的医学影像对模型进行微调,将医学影像输入到预训练的视觉编码器中,得到视觉特征,将影像描述作为文本提示输入基于中文大语言模型的文本编码器中,得到文本特征,将两个特征投射为相同尺寸再进行拼接,得到最终特征,将最终特征输入到使用高效微调方法(LoRA)的中文大语言模型中,得到质量控制报告,进行实体提取,再对实体进行编码,计算其与真实标签编码之间的距离,采用对比学习进行微调。本发明能够用于对2D和3D医学影像进行质量控制。
-
公开(公告)号:CN118691643A
公开(公告)日:2024-09-24
申请号:CN202410704578.9
申请日:2024-06-03
Applicant: 安徽大学
IPC: G06T7/246 , G06T7/10 , G06V10/77 , G06V10/764 , G06V10/40 , G06N3/0455 , G06N5/01 , G06F17/18
Abstract: 本发明公开了基于RGB‑事件的自适应删插帧的高效视觉跟踪方法,属于事件相机技术领域,包括以下步骤:输入数据;特征提取和关系建模;跟踪头定位目标边界框;自适应的决策模块:将映射层的token embeddings、Transformer编码层的特征、跟踪头的目标边界框拼接在一起输入到决策模块中,得到相应的决策,决策分为三类:不操作,删帧,插帧。通过上述方式,本发明设计了自适应决策模块,通过决策模块的输出,可以自适应地选择RGB数据或者事件流数据作为模型的输入。本发明使得模型能够充分利用不同模态数据的优势,使模型更加灵活地应对不同情况,从而提高跟踪的准确性、稳定性和效率性。
-
-
-
-
-
-
-
-
-