-
公开(公告)号:CN104778675B
公开(公告)日:2017-07-28
申请号:CN201510209570.6
申请日:2015-04-28
Applicant: 中国矿业大学
Abstract: 一种采煤综掘工作面动态视频图像融合方法,属于动态视频图像融合方法。该动态视频图像融合方法:选择摄像机放置轴心,围绕摄像机轴心,放置两台或多台高清网络摄像机,将整个采煤综掘工作面完全覆盖;并且相邻摄像机获取的视频帧图像要有三分之一左右的重叠区域;然后将获得的采煤综掘工作面动态视频进行融合。优点:级联哈希特征匹配算法使用两次哈希映射,保证了特征匹配的精度和匹配速度;视差容忍变换模型使用特征点生长准则结合动态规划算法,提高了视频融合的速度,降低了视频融合过程中对摄像机位置的要求,对于存在较大视差及发生较大旋转的摄像机,仍然能够取得很好的动态视频融合效果。提高了煤矿开采工作效率,保障了煤矿安全生产。
-
公开(公告)号:CN105844667A
公开(公告)日:2016-08-10
申请号:CN201610178939.6
申请日:2016-03-25
Applicant: 中国矿业大学
CPC classification number: G06T2207/20081
Abstract: 本发明公开了一种紧凑颜色编码的结构化目标跟踪方法,通过融合候选目标区域的形状与颜色特征,增强了目标的特征描述能力;使用哈希函数降低这种组合特征的维度,形成低维的紧凑二进制颜色编码特征,有效的降低了跟踪算法的计算复杂度;使用结构化分类函数提高了目标分类的精确度,增强了对非刚体目标形变、目标遮挡的处理能力,提升了目标跟踪的性能。本方法首先对目标位置及结构化分类函数进行初始化;其次生成目标训练样本,并提取样本的形状与颜色特征;接着构建紧凑编码特征;然后使用这些训练样本的紧凑编码特征学习与更新结构化分类函数;最后在当前帧生成候选目标区域,使用更新过参数的结构化分类函数估计最优目标区域,实现目标跟踪。
-
公开(公告)号:CN119850651A
公开(公告)日:2025-04-18
申请号:CN202411929997.9
申请日:2024-12-25
Applicant: 中国矿业大学
IPC: G06T7/11 , G06N3/0455 , G06N3/0442 , G06N3/0464 , G06T7/13 , G06T7/90 , G06T7/40
Abstract: 本发明公开了一种基于动态提示记忆网络的视频阴影检测方法及装置,借助投影阴影的物体处理混淆阴影,能够在不累积错误的情况下聚合时间信息;该方法包括动态提示模块和基于提示的记忆模块两部分;所述动态提示模块利用局部提示和全局提示,在直接编码阴影困难时将视觉基础模型DINOv2提供的语义信息转换为阴影掩码,局部提示侧重于语义转换,基于语义信息识别阴影位置,全局提示基于颜色和纹理信息识别阴影边界;所述记忆模块用于解决变形和长期时间一致性问题,同时防止错误累积,记忆模块使用局部提示作为时间匹配的代理,减少内存使用并最小化对历史阴影掩码的依赖。本发明方法面向复杂场景下模糊阴影难以检测的问题,能够提升复杂场景下的检测性能,同时保持长期检测时结果的时间一致性。
-
公开(公告)号:CN114494959B
公开(公告)日:2025-03-25
申请号:CN202210080615.4
申请日:2022-01-24
Applicant: 中国矿业大学
IPC: G06V20/40 , G06V10/82 , G06N3/0464 , G06N3/08 , G06N3/048
Abstract: 本发明公开了一种针对视频目标分割的注意力引导的对抗性攻击方法,首先使用特征提取器提取视频帧的特征图;然后构建多级特征空间注意力模块,获得空间注意力图;将空间注意力图与特征图串联起来,得到增强特征图,并对增强特征图进行下采样;构建反卷积神经网络,基于下采样后的增强特征图生成原始视频序列的对抗性扰动;将生成的对抗性扰动添加到原始视频序列中产生对抗样本;给定初始帧掩码,将对抗样本输入经典的单样本视频目标分割网络中得到最终预测掩码。本发明提供对抗性攻击方法借助注意力机制和增强特征图生成对抗性扰动,能够针对视频目标分割任务进行对抗性攻击,实现将目标的所有像素进行错误分类。
-
公开(公告)号:CN118781321A
公开(公告)日:2024-10-15
申请号:CN202410767672.9
申请日:2024-06-14
Applicant: 中国矿业大学
Abstract: 本发明公开了一种基于双向边缘和目标学习的红外小目标检测方法及装置,先将红外小目标图像输入到多级编码器以提取多级编码特征,同时使用粗略边缘检测算子获取粗略边缘特征,将得到的编码特征和粗略边缘特征输入到多级解码器进行特征重建,通过DGCFM模块捕获边缘细节和目标区域全局上下文特征,然后将多级编码器生成的编码特征和对应多级解码器反卷积中生成的高级特征输入到CIAAM模块自适应调整浅层特征和深层特征的融合权重,进而获得跨层融合特征,得到最终的目标特征和精细边缘特征,将目标特征输入到检测头进行像素级语义分割。本发明利用双向学习边缘细节和目标区域的互补优势增强了特征交叉融合能力并能充分发挥边缘信息的优势。
-
公开(公告)号:CN118609200A
公开(公告)日:2024-09-06
申请号:CN202410624672.3
申请日:2024-05-20
Applicant: 中国矿业大学
Abstract: 本发明公开了一种溺水行为分析方法及基于多目标跟踪与识别的防溺水系统,先采用多目标识别算法识别人体目标、定位人体位置并标注人体关键点,然后采用多目标跟踪算法跟踪人体目标、人体位置及人体关键点,接着基于人体位置、人体关键点建立人体目标的动态信息库,最后采用溺水行为分析算法对动态信息库进行分析,生成游泳者标定画面与预警信息。本发明通过计算机视觉技术,快速识别游泳者潜在溺水风险,防患于未然,具有准确稳定的优点,能够实现全时间段、全方位的监控,有效地减少了人力成本和资源消耗,利于降低溺水事故的发生率,提高了游泳运动的安全性。
-
公开(公告)号:CN113128323B
公开(公告)日:2023-08-18
申请号:CN202010047847.0
申请日:2020-01-16
Applicant: 中国矿业大学
IPC: G06V10/764 , G06V10/82 , G06V20/10 , G06V10/774 , G06V10/776 , G06N3/0464 , G06N3/086 , G06N3/084
Abstract: 本发明公开了一种基于协同进化卷积神经网络学习的遥感图像分类方法,属于图像处理技术领域。首先初始化多个不同优化方法的相同网络,将初始化的网络同时进行训练,选取一个时间间隔,在每个时间间隔后,选取在测试集上分类准确率最高的网络,保存其模型的全部参数并将保存的模型参数赋予协同训练中剩余的网络,进行网络的迭代训练,每次丢弃表现较差的模型参数,继承表现最好的模型参数。使得每个优化方法充分发挥其功能,达到优化最大化,提高收敛速度,达到较高的准确率。本发明可对大规模的高分辨率遥感图像进行场景分类,大大提高遥感图像分类的准确性,可用于自然灾害的检测与评估,环境监测等领域,减少判断与决策失误性,减少损失。
-
公开(公告)号:CN110968735B
公开(公告)日:2023-06-20
申请号:CN201911163066.1
申请日:2019-11-25
Applicant: 中国矿业大学
IPC: G06V40/10 , G06V10/764 , G06V10/74 , G06V10/762 , G06V10/82 , G06N3/04 , G06N3/08
Abstract: 本发明公开了一种基于球面相似度层次聚类的无监督行人重识别方法,用球面相似度衡量行人图片之间的相似度,减弱因摄像头位置不同导致的光线、角度等结构化的差异;同时,将图片特征向量进行归一压缩到球面之后,对于特征的类别区分更清晰明确。本发明将基于球面相似度的层次聚类方法和通过球面特征压缩进行图片分类的方法进行整合,能够在没有人工进行图片标注的前提下对行人图像进行检索,并达到较高的检索准确率。
-
公开(公告)号:CN110765880B
公开(公告)日:2023-04-18
申请号:CN201910903126.2
申请日:2019-09-24
Applicant: 中国矿业大学
IPC: G06V40/10 , G06V20/40 , G06V10/40 , G06V10/74 , G06V10/764
Abstract: 本发明公开了一种轻量级视频行人重识别方法,属于计算机视觉技术处理技术领域。在搭建模型阶段,使用基于ShuffleNet v2的轻量级算法,同时,利用轻量级空间注意力机制模块处理人物图像细节,最后,通过一个在线差异识别模块来测量视频帧之间的特征差距,并使用该模块对不同质量的视频序列进行不同类型的时间建模。在模型训练阶段,输入行人的视频序列,使用上述搭建好的网络提取它们的特征表示,利用批量难分辨三元组损失和softmax损失共同训练并更新行人特征;在模型测试阶段,使用训练好的轻量级行人搜索模型对输入的目标查询行人,提取行人特征,并在大规模的视频序列中搜索出目标查询行人。本发明可应对大规模的现实场景图象,用于城市监控等安防领域。
-
公开(公告)号:CN115375948A
公开(公告)日:2022-11-22
申请号:CN202211113015.X
申请日:2022-09-14
Applicant: 中国矿业大学
IPC: G06V10/764 , G06V10/774 , G06V10/80 , G06V10/82 , G06T7/246 , G06T5/20 , G06N3/04 , G06N3/08
Abstract: 本发明公开了一种基于全局注意力的卷积‑Transformer的RGB‑T目标跟踪网络方法,输入是一对来自视频流中的可见光和红外图像,通过构建卷积‑Transformer特征提取网络,共享参数的Transformer分支处理多模态数据的共享特征并建立全局信息模型。独立的卷积分支则处理各个模态的独立特征。结合全局与局部、共享和独立信息特征以充分挖掘多模态数据的可利用信息。然后通过交叉注意融合模块利用交叉注意力建立模态之间全局对应关系以加强模态间的信息交互,实现深度融合。通过ROIAlign层将候选样本映射成固定大小的特征。最后,由每个候选样本映射的融合特征被送入全连接层以预测分数由二元分类层获得。
-
-
-
-
-
-
-
-
-