-
公开(公告)号:CN119723364A
公开(公告)日:2025-03-28
申请号:CN202411751958.4
申请日:2024-12-02
Applicant: 武汉大学
IPC: G06V20/13 , G06V10/764 , G06V10/774 , G06V10/80 , G06V10/82 , G06N3/0464
Abstract: 本发明公开一种基于yolov8模型的月球暗地幔沉积物识别方法及系统,其月球暗地幔沉积物识别模型在骨架网络模块输出特征图的过程中,引入多尺度特征提取模块,使得模型采用多尺度卷积神经网络来提取图像的特征,增强了模型的尺度适应性和非线性,提高了模型检测多尺度目标的性能。本发明结合暗地幔沉积物数据与深度学习算法,提升了对复杂地形和不同尺度沉积物的识别能力。同时,本发明具有更高的检测精度和速度,能够快速响应不同观测条件下的需求,为科学研究提供更为可靠的数据支持。本发明对暗地幔沉积物的检测,对于进行天文探索、矿产资源评估和揭示月球早期的火山活动历史和构造演化过程等都能提供重要的科学依据。
-
公开(公告)号:CN117830701B
公开(公告)日:2025-03-25
申请号:CN202311742615.7
申请日:2023-12-15
Applicant: 武汉大学
IPC: G06V10/764 , G06V10/42 , G06V10/80 , G06V10/82 , G06N3/0464
Abstract: 本发明公开了基于注意力机制的多尺度特征融合星图识别方法和装置,在训练基于深度学习星图识别模型时,提取卷积神经网络前馈计算过程中产生的多尺度特征图,形成多尺度特征层次金字塔结构。此外,利用基于注意力机制的多尺度特征融合方法替换传统的简单线性融合操作,按照网络深度自顶向下地对所提取多尺度特征图做逐层融合。融合过程中使用多尺度注意力模块,该模块在通道注意力机制过程中实现,可沿通道维度聚合多尺度上下文信息,更好地融合语义和尺度不一致的特征。本发明考虑到深空环境中的恒星分布可能呈现多种尺度的情况,同时强调分布更全局的恒星星群和分布更局部的恒星星群,提高模型在真实深空场景的极端尺度变化下识别星图的精度。
-
公开(公告)号:CN114241464B
公开(公告)日:2024-12-31
申请号:CN202111444175.8
申请日:2021-11-30
Applicant: 武汉大学
IPC: G06V20/62 , G06N3/0464 , G06N3/08 , G06V10/774 , G06V10/75
Abstract: 本发明提供一种基于深度学习的跨视角影像实时匹配地理定位方法及系统,包括利用域对齐算法将空视图像与街景图像初步对齐;构建孪生神经网络,所述孪生神经网络的结构包括两个提取特征图的卷积神经网络分支,后接全局描述向量编码模块,再接距离度量层;在包含街景图像与遥感图像的已有数据集基础上训练孪生神经网络;构建具体应用场景的数据集,并继续在训练所得的孪生神经网络基础上进行微调训练;现场抓拍街景图片,并利用训练好的网络在构建的数据集中检索与之匹配的卫星图像,从而完成街景图片的定位。本发明能适用于各类场景下的跨视角图像地理定位,对实际应用中定位的精度和鲁棒性都有一定程度的提高。
-
公开(公告)号:CN114972167B
公开(公告)日:2024-12-24
申请号:CN202210301488.6
申请日:2022-03-24
Applicant: 武汉大学
Abstract: 本发明公开了一种基于时空注意力和跨模态融合的胚胎妊娠预测方法及系统,包括采集胚胎培养过程中各发育阶段的胚胎图像,提取患者的临床数据和病历数据;对胚胎图像做预处理和数据增强,得到图像输入数据,对临床数据进行数据清洗和特征工程,得到临床输入数据;将临床输入数据分别输入胚胎质量评估模型和临床医学数据挖掘模型,分别得到胚胎形态学特征向量和临床特征向量;利用跨模态特征融合方式融合两种模态的特征,得到胚胎形态学特征与临床特征的融合特征;将融合特征输入预测器,预测胚胎妊娠概率。本发明的自动分析预测结果具有良好的鲁棒性和可解释性。
-
公开(公告)号:CN114332163B
公开(公告)日:2024-10-01
申请号:CN202111636002.6
申请日:2021-12-29
Applicant: 武汉大学
IPC: G06T7/246 , G06T7/277 , G06T7/11 , G06N3/045 , G06N3/0475 , G06N3/0455 , G06N3/094 , G06N3/096
Abstract: 本发明提供一种基于语义分割的高空抛物检测方法及系统,包括预先通过知识蒸馏训练轻量化的语义分割网络,从监控视频取无相机抖动帧,输入语义分割网络提取建筑物区域,作为高空抛物检测的候选区域;取若干无相机抖动帧,进行二值化处理,然后用高斯混合模型进行背景建模,得到当前场景的背景图;对待检测的当前帧图像进行相机抖动判断,若相机不抖动,则利用背景使用背景差分法对当前帧图像进行建筑物区域内的运动检测,得到运动对象;对得到的运动对象进行去噪处理;对去噪后的候选对象用匈牙利算法进行目标追踪,如果能成功追踪,则对跟踪轨迹进行判断,若跟踪轨迹符合高空抛物的轨迹,则认为是高空抛物,进一步得到其抛出位置和落点位置。
-
公开(公告)号:CN117315137A
公开(公告)日:2023-12-29
申请号:CN202311137288.2
申请日:2023-09-05
Applicant: 武汉大学
Abstract: 本发明公开了一种基于自监督学习的单目RGB图像手势重建方法及系统,首先从RGB图像和视频中提取2D人手关键点检测结果,作为伪标签;然后改进参数化人手模型,注入符合人手运动学规律的姿态先验;接着构建3D人手重建网络和2D关键点检测器网络;最后针对图像和视频训练数据以及的2D关键点伪标签,对3D人手重建网络和可训练的2D关键点检测器设置自监督信号,训练手势估计网络,基于训练结果实现单目RGB图像手势重建。本发明解决了单目RGB图像手势姿态估计,光照纹理估计,自监督信号提取等难点问题。具有可使用广泛的无标签图像和视频数据,精度高,效率高,泛化性强使用面广等优点。
-
公开(公告)号:CN114882581A
公开(公告)日:2022-08-09
申请号:CN202210301482.9
申请日:2022-03-24
Applicant: 武汉大学
Abstract: 本发明公开了一种面向噪声骨架数据的数据增强与人体动作识别方法,首先进行针对RGB视频提取的噪声骨架数据的数据增强,包括对2D噪声骨架数据进行归一化与数据对齐,计算时间一阶差分作为相邻帧节点运动幅度,将噪声帧相应节点坐标置零,对2D骨架节点恢复得到3D骨架节点序列;然后进行多流的高精度骨架人体动作识别,包括对3D骨架节点序列计算时间一阶差分得到相邻帧的节点运动幅度,对恢复出的3D骨架节点序列计算空间一阶差分得到骨骼向量,将3D骨架节点序列、3D节点运动幅度序列、3D骨骼向量序列作为三种不同的输入流,并行输入骨骼行为识别模型中进行处理;对这三个网络流输出的分类结果采取后融合的方式,作为最终的骨架动作分类结果。
-
公开(公告)号:CN114241464A
公开(公告)日:2022-03-25
申请号:CN202111444175.8
申请日:2021-11-30
Applicant: 武汉大学
Abstract: 本发明提供一种基于深度学习的跨视角影像实时匹配地理定位方法及系统,包括利用域对齐算法将空视图像与街景图像初步对齐;构建孪生神经网络,所述孪生神经网络的结构包括两个提取特征图的卷积神经网络分支,后接全局描述向量编码模块,再接距离度量层;在包含街景图像与遥感图像的已有数据集基础上训练孪生神经网络;构建具体应用场景的数据集,并继续在训练所得的孪生神经网络基础上进行微调训练;现场抓拍街景图片,并利用训练好的网络在构建的数据集中检索与之匹配的卫星图像,从而完成街景图片的定位。本发明能适用于各类场景下的跨视角图像地理定位,对实际应用中定位的精度和鲁棒性都有一定程度的提高。
-
公开(公告)号:CN109145841A
公开(公告)日:2019-01-04
申请号:CN201810997231.2
申请日:2018-08-29
Applicant: 武汉大学
CPC classification number: G06K9/00744 , G06K9/6256
Abstract: 本发明提供了一种基于视频监控的异常事件检测方法及装置,其中的方法包括:首先将训练视频进行特征提取,获得训练视频的第一特征向量,然后对所述第一特征向量进行训练,获得一个稀疏字典矩阵;接着对待检测视频进行特征提取,得到待检测视频的第二特征向量;再将所述第二特征向量与所述稀疏字典矩阵进行对比运算,获得所述待检测视频中每一视频帧的分值,其中,所述分值用以表征待检测视频中的视频帧的异常可能性,最后将所述分值超过阈值的视频帧作为存在异常事件的视频帧。本发明达到了提高检测效率和检测准确性的技术效果。
-
公开(公告)号:CN118799962A
公开(公告)日:2024-10-18
申请号:CN202410835875.7
申请日:2024-06-26
Applicant: 武汉大学
IPC: G06V40/20 , G06V20/40 , G06V10/764 , G06V10/82 , G06T9/00 , G06T5/92 , G06N3/0455 , G06N3/0464 , G06N3/0499 , G06N3/08
Abstract: 本发明提供一种低光照环境下的视频人体行为识别方法及设备,进行模型初始化,包括对深度网络模型进行预训练获取预训练权重;对视频数据进行预处理,包括对视频片段切分,对片段中每帧图像进行初步数据增强;照度检测与压缩,包括对预处理后的视频数据进行照度检测,如果光照不足则进行视频压缩;使用深度网络模型进行视频亮度的增强,对视频的每一帧照度进行调整和提升;将增强后所得的输出序列输入动作识别分类器中进行动作分类;将提取后的特征输入全连接层分类头,经全卷积通道输出分类结果。本发明减少了参数量和计算量,提高了弱光环境下的动作识别准确率,鲁棒性好,优化了推理效率。
-
-
-
-
-
-
-
-
-