-
公开(公告)号:CN116468948A
公开(公告)日:2023-07-21
申请号:CN202310438408.6
申请日:2023-04-23
Applicant: 武汉大学
IPC: G06V10/764 , G06V10/762 , G06V10/766 , G06V10/80 , G06V10/82 , G06V10/40 , G06N3/045 , G06N3/0464 , G06N3/096 , G06N3/0985
Abstract: 本发明提供一种支持检测未知类的城市垃圾增量学习检测方法及系统,在Faster‑RCNN检测模型基础上优化特征提取与特征利用,包括设置金字塔特征结构获得多尺度特征,对特征做通道注意力修正,通过修正突出图像特征重点区域,抑制不明显特征,获得垃圾检测基础模型;在垃圾检测基础模型的基础上,建立可持续增量注册学习模型;在可持续增量注册学习模型基础上,设置支持检测未知类别网络结构,稳定地识别未知类别的城市垃圾;支持将未知输出结果作为补充,进行增量注册学习,实现闭环。本发明提升检测精度;实现模型可持续注册增量学习,使用新数据注册新检测类别,不接触旧数据同时不产生知识遗忘;能够检测未知类别,对训练数据中不存在类别产出有效检测。
-
公开(公告)号:CN114972167A
公开(公告)日:2022-08-30
申请号:CN202210301488.6
申请日:2022-03-24
Applicant: 武汉大学
Abstract: 本发明公开了一种基于时空注意力和跨模态融合的胚胎妊娠预测方法及系统,包括采集胚胎培养过程中各发育阶段的胚胎图像,提取患者的临床数据和病历数据;对胚胎图像做预处理和数据增强,得到图像输入数据,对临床数据进行数据清洗和特征工程,得到临床输入数据;将临床输入数据分别输入胚胎质量评估模型和临床医学数据挖掘模型,分别得到胚胎形态学特征向量和临床特征向量;利用跨模态特征融合方式融合两种模态的特征,得到胚胎形态学特征与临床特征的融合特征;将融合特征输入预测器,预测胚胎妊娠概率。本发明的自动分析预测结果具有良好的鲁棒性和可解释性。
-
公开(公告)号:CN111666819A
公开(公告)日:2020-09-15
申请号:CN202010391419.X
申请日:2020-05-11
Applicant: 武汉大学
Abstract: 本发明公开了一种融合多元信息的高精度视频异常事件检测方法,实时检测与识别危害或可能危害公共安全的、与人相关的异常事件。针对深度学习算法在人群异常事件检测中的不足,尤其针对复杂场景,本发明提出了一种基于运动信息与光谱信息融合的深度学习网络的视频异常事件检测方法,力图提高异常事件检测在复杂场景中的准确率。视频特征主要包括视频帧的亮度信息和视频中目标的运动信息,通过构建空间特征自编码器和运动特征自编码器,分别进行视频空间特征和运动信息的提取,以及视频序列的重建,对于重建误差大于阈值的视频序列帧标记为异常事件。这种有效融合视频运动信息和光谱亮度信息的方法,较好的提高人群异常事件检测的鲁棒性与实用性。
-
公开(公告)号:CN109271886A
公开(公告)日:2019-01-25
申请号:CN201810995056.3
申请日:2018-08-29
Applicant: 武汉大学
IPC: G06K9/00
Abstract: 本发明提供了一种教育考试监控视频的人体行为分析方法及系统,其中的方法包括:获取当前的预设视频帧并送入到目标检测器,得到考场内的所有目标对象,然后将目标对象的特征表示送入到分类器中,执行考生和监考老师的分类。如果是考生,则进一步执行异常检测的步骤,将考生的特征表示送入到异常检测器中,执行动作分析,判断是否存在异常,如果判断为发生异常动作,则将考生的相关信息加入到预设序列中,待违规序列堆栈满时,调用整合器,执行整合操作,从而得到分析结果。解决了目前的视频分析技术在应对复杂的动态环境时检测效果差,限制了视频分析技术的应用范围的技术问题。
-
公开(公告)号:CN118379793A
公开(公告)日:2024-07-23
申请号:CN202410422584.5
申请日:2024-04-09
Applicant: 武汉大学
IPC: G06V40/20 , G06V20/40 , G06V10/764 , G06V10/82 , G06T3/4053 , G06T3/4046 , G06N3/084
Abstract: 本发明公开了一种基于超分辨率增强的单阶段低分辨率动作识别方法及系统,建立一个端到端的统一单阶段低分辨率视频动作识别框架,用于实现动作识别;该框架集成超分辨率模块和动作识别模块,在单阶段内以动作识别为导向,仅需低分辨率数据而不依赖于高分辨率数据,联合训练超分辨率和动作分类;从无参考图像质量评价的角度,通过评估超分辨率模块输入和输出两种特征在自一致性和邻域一致性上的变化幅度保持空间一致性;设置由自一致性损失、邻域一致性损失和交叉熵损失线性组合成的综合损失函数,通过在整个框架中反向传播来实现端到端优化。本发明在单阶段中联合优化视频超分辨率和动作分类,可以学习更鲁棒和全面的动作特征。
-
公开(公告)号:CN117830701A
公开(公告)日:2024-04-05
申请号:CN202311742615.7
申请日:2023-12-15
Applicant: 武汉大学
IPC: G06V10/764 , G06V10/42 , G06V10/80 , G06V10/82 , G06N3/0464
Abstract: 本发明公开了基于注意力机制的多尺度特征融合星图识别方法和装置,在训练基于深度学习星图识别模型时,提取卷积神经网络前馈计算过程中产生的多尺度特征图,形成多尺度特征层次金字塔结构。此外,利用基于注意力机制的多尺度特征融合方法替换传统的简单线性融合操作,按照网络深度自顶向下地对所提取多尺度特征图做逐层融合。融合过程中使用多尺度注意力模块,该模块在通道注意力机制过程中实现,可沿通道维度聚合多尺度上下文信息,更好地融合语义和尺度不一致的特征。本发明考虑到深空环境中的恒星分布可能呈现多种尺度的情况,同时强调分布更全局的恒星星群和分布更局部的恒星星群,提高模型在真实深空场景的极端尺度变化下识别星图的精度。
-
公开(公告)号:CN112287977B
公开(公告)日:2024-02-09
申请号:CN202011067602.0
申请日:2020-10-06
Applicant: 武汉大学
IPC: G06V10/25 , G06V10/74 , G06V10/764 , G06V10/766 , G06V10/774
Abstract: 本发明公开了一种基于边界框关键点距离的目标检测方法。在计算机视觉领域目标检测的研究中,正负样本分类和边界框回归损失是重中之重,关乎了目标检测内容物的定位精度和识别精度。目前目标检测方法中基于交并比的正负样本分类和框回归损失的研究虽然卓有成效,但仍然面临着诸多挑战。因此,本发明基于边界框关键点之间的距离发明了关键点交并比定义方法,针对正负样本分类不准确问题,该方法更加准确的描述边界框之间的差距。针对目前回归损失计算效率低,准确度差等问题,依据关键点交并比,设计一个新的回归损失函数。本发明所公开的方法能适用于各种类型的目标检测网络,对目标检测框的定位框取准确度和检测精度都有一定程(56)对比文件李宾皑;李颖;孙宇飞;顾书玉.目标检测、人体姿态估计算法叠加的监控视频分析方法.电子技术与软件工程.2020,(第07期),全文.杨然;李坤;涂志刚;陈荣元;秦前清.基于Yamaguchi分解模型的全极化SAR图像分类.计算机工程与应用.2009,(第36期),全文.刘奎响.深度学习目标检测中样本挖掘及深层网络优化算法研究.CNKI.2019,全文.崔馨方.关于人脸关键点检测的若干问题研究.CNKI.2019,全文.
-
公开(公告)号:CN117372524A
公开(公告)日:2024-01-09
申请号:CN202311422373.3
申请日:2023-10-31
Applicant: 武汉大学
Abstract: 本发明提供一种基于条件生成网络的高仿真地空影像匹配定位方法及系统,包括使用全局对准算法对输入图片进行数据预处理;预处理后的图像导入第一个条件生成网络生成跨视图图像,采用的生成器网络命名为G1;将生成器G1输出的合成图像输入第二个条件生成网络,并在同一视图中合成分割图,采用的生成器网络记为G2,根据其功能命名为分割器;将G1与G2同时进行网络训练;针对G1与G2分别构建鉴别器网络D1、D2;在跨视角数据集平台上训练G1、G2、D1以及D2网络;基于跨视角数据集平台,根据具体应用场景和领域构建对应子数据集,对网络参数进行微调;对输入摄街景图片,利用前述步骤中训练完成的网络进行检索,实现对输入图片的地理定位。
-
公开(公告)号:CN111462191B
公开(公告)日:2022-07-19
申请号:CN202010328677.3
申请日:2020-04-23
Applicant: 武汉大学
IPC: G06T7/246
Abstract: 本发明公开了一种基于深度学习的非局部滤波器无监督光流估计方法。为了解决现实中缺少真实光流标签以及构造有标签光流数据耗时费力的问题,本发明设计了一种无监督深度网络架构,减少了对标注数据的依赖。为了提高无监督光流模型的精度,针对光流计算面临的3大难点问题,即噪声、边界模糊、遮挡,首先开发了一种基于卷积神经网络的非局部滤波器,对光流场进行滤波精炼,有效的处理了噪声与边界模糊。该非局部滤波器能从视频数据中自主学习到滤波权重,泛化能力强。其次利用精炼后的光流对遮挡进行推理,根据光流和遮挡图设计全新的损失函数。本发明不需要任何标注数据,以端到端的训练模式获取高精度的运动信息,且能较好的获取目标运动细节。
-
公开(公告)号:CN114882581B
公开(公告)日:2024-07-26
申请号:CN202210301482.9
申请日:2022-03-24
Applicant: 武汉大学
Abstract: 本发明公开了一种面向噪声骨架数据的数据增强与人体动作识别方法,首先进行针对RGB视频提取的噪声骨架数据的数据增强,包括对2D噪声骨架数据进行归一化与数据对齐,计算时间一阶差分作为相邻帧节点运动幅度,将噪声帧相应节点坐标置零,对2D骨架节点恢复得到3D骨架节点序列;然后进行多流的高精度骨架人体动作识别,包括对3D骨架节点序列计算时间一阶差分得到相邻帧的节点运动幅度,对恢复出的3D骨架节点序列计算空间一阶差分得到骨骼向量,将3D骨架节点序列、3D节点运动幅度序列、3D骨骼向量序列作为三种不同的输入流,并行输入骨骼行为识别模型中进行处理;对这三个网络流输出的分类结果采取后融合的方式,作为最终的骨架动作分类结果。
-
-
-
-
-
-
-
-
-