一种基于多物理特性的车辆异常行为检测方法

    公开(公告)号:CN118366222A

    公开(公告)日:2024-07-19

    申请号:CN202410555138.1

    申请日:2024-05-07

    Abstract: 本发明涉及一种基于多物理特性的车辆异常行为检测方法,包括:输入道路监控视频信息,使用改进的YOLOv3网络对道路监控视频中的车辆进行多目标检测;为每辆车分配唯一ID,通过DeepSort多目标跟踪算法对车辆进行轨迹跟踪;获取车辆的物理特征,包括加速度、车辆方向变化和车辆重合度;分别进行车辆异常得分的估算;将四种车辆异常得分相加,得到最终车辆异常得分,若最终车辆异常得分超过预设阈值,判定为发生车辆异常,否则,判定为未发生车辆异常。本发明使用改进的YOLOv3的目标检测算法对监控视角的小目标车辆进行检测标记;使用DeepSort算法的记忆功能与之前的特征进行相似度对比,从而与上一时刻的目标对接;利用跟踪与检测的结果计算车辆的物理运动特征。

    基于双向交替融合策略的可见光-热红外显著目标检测方法

    公开(公告)号:CN118038228A

    公开(公告)日:2024-05-14

    申请号:CN202410313041.X

    申请日:2024-03-19

    Applicant: 安徽大学

    Abstract: 本发明公开一种基于双向交替融合策略的可见光‑热红外显著目标检测方法,充分的挖掘两个模态的信息提高显著目标检测的性能。通过特征擦除模块将另一个模态与本模态共有的信息进行擦除使网络能够学习模态本身特有的特征信息;通过全局上下文增强模块将可见光模态特征、热红外模态特征和擦除模块生成的特异性特征通过多头注意力进行初步的融合得到丰富的全局上下文信息再引入可变形卷积得到显著目标的自适应位置信息,使得网络能够更好的完成检测通过双向交替解码器中的多模态交互模块将一个模态高层的融合特征交替与另一个模态低层特征进行融合,使网络能够学习到丰富的语义信息和细节信息。本发明在现有的可见光‑热红外显著目标检测数据集上取得了最好的效果。

    一种多图像查询车辆重识别方法、设备及存储介质

    公开(公告)号:CN117708355A

    公开(公告)日:2024-03-15

    申请号:CN202311699903.9

    申请日:2023-12-11

    Applicant: 安徽大学

    Abstract: 一种多图像查询车辆重识别方法、设备及存储介质,属于车辆重识别技术领域,解决如何提高多张车辆图像检索的效果的问题,本发明利用了Transformer擅长捕获长距离依赖关系和不同特征提取阶段关注范围的逐渐增加的特点,提取了多张车车辆图像的融合特征;此外,为了提高每个视角的全局特征提取能力通过设计提出多分支视角独有特征提取模块,每个分支仅仅提取某一视角车辆图像的特征,使得分支网络能够更加擅长捕获在某一视角的车辆全局特征,在最终的距离度量阶段,引入了独有视角全局特征辅助距离计算,来提高网络识别的性能,提高了多图像查询车辆重识别效果,保证了模型的鲁棒性。

    诊断报告的生成方法、模型训练方法、系统、设备及介质

    公开(公告)号:CN117393100A

    公开(公告)日:2024-01-12

    申请号:CN202311688317.4

    申请日:2023-12-11

    Applicant: 安徽大学

    Abstract: 本发明提供一种诊断报告的生成方法、模型训练方法、系统、设备及介质。训练方法包括:获取含病变标签和诊断报告的第一类医学影像图片、含病变标签标注的第二类医学影像图片、不含病变标签标注的第三类医学影像图片;根据学生模型生成三类医学影像图片对应的第一预测诊断报告、第二预测诊断报告和第三预测诊断报告;根据教师模型生成第三类医学影像图片的第四预测诊断报告;根据文本分类模型生成第一预测诊断报告和第二预测诊断报告的预测病变标签;基于预测病变标签和病变标签、第二预测诊断报告和诊断报告、第三预测诊断报告的第四预测诊断报告,更新学生模型和教师模型的参数,将训练好的学生模型作为诊断报告生成模型。提高了模型的准确率。

    一种基于多尺度和多视角特征对齐的文本车辆重识别方法

    公开(公告)号:CN116704452A

    公开(公告)日:2023-09-05

    申请号:CN202310699095.X

    申请日:2023-06-12

    Applicant: 安徽大学

    Inventor: 李成龙 丁乐奇

    Abstract: 一种基于多尺度和多视角特征对齐的文本车辆重识别方法,属于深度学习技术领域,解决现有车辆重识别视角挑战问题;构建基于残差网络ResNet‑50和卷积神经网络的双流特征学习网络;在视觉编码器引入车辆视角掩码提取对应视角特征,并从编码器的不同层提取多尺度特征;在文本编码器使用文本卷积网络构建多视角和多尺度分支,使用对齐的视觉特征监督相应分支的学习;为了有效的进行各个分支的对齐,提出了掩码双向匹配损失,掩盖同一车辆下不成对的样本并考虑文本到图像和图像到文本双向的检索;通过引入视角掩码有效的解耦了车辆不同视角的特征,并挖掘图像文本之间多尺度的匹配线索;掩码双向匹配损失保证训练稳定性的同时加速模型收敛。

    基于渐进式融合Transformer与动态指导学习的RGBT跟踪方法及系统

    公开(公告)号:CN116523956A

    公开(公告)日:2023-08-01

    申请号:CN202310197389.2

    申请日:2023-02-28

    Applicant: 安徽大学

    Abstract: 本发明提供基于渐进式融合Transformer与动态指导学习的RGBT跟踪方法及系统,方法包括:训练过程和测试过程,训练过程包括:数据采样和预处理;特征提取;跨分支特征融合;模板帧和搜索帧特征信息交互;搜索帧特征送入分类器并计算分类损失;适用协同学习算法进行训练优化,测试过程包括:数据采样和预处理;特征提取;跨分支特征融合;模板帧和当前帧特征信息交互;当前帧特征送入分类器和回归器;预测当前帧目标的包围框。本发明解决了不同模态丢失异构信息、融合特征与特定模态特征之间的关系在学习判别多模态表示时却被忽略、缺乏全局表示能力的技术问题。

    联合令牌和特征对齐的自然语言行人检索方法及系统

    公开(公告)号:CN115311687A

    公开(公告)日:2022-11-08

    申请号:CN202210951558.2

    申请日:2022-08-09

    Applicant: 安徽大学

    Abstract: 本发明提供联合令牌和特征对齐的自然语言行人检索方法及系统包括:使用双流特征学习网络中的图像分支提取输入行人图像的视觉特征;使用双流特征学习网络中的文本分支提取输入行人描述的文本特征;对图像和文本分支提取到的全局特征图在特征空间内进行对齐;使用特征空间中对齐的图像全局特征生成令牌序列;在生成令牌序列和真实令牌序列之间进行令牌对齐;对图像和文本特征进行跨模态融合交互;联合令牌和特征对齐的自然语言行人检索模型训练;联合令牌和特征对齐的自然语言行人检索模型测试。本发明解决了歧义性嵌入、复杂度高、依赖预置数据以及模态距离、类内距离优化效果差的技术问题。

Patent Agency Ranking