-
公开(公告)号:CN118071986A
公开(公告)日:2024-05-24
申请号:CN202410056271.2
申请日:2024-01-15
Applicant: 中国民用航空飞行学院
IPC: G06V10/25 , G06V10/44 , G06V10/774 , G06V10/82 , G06V20/40 , G06N3/0464 , G06N3/082
Abstract: 本发明涉及火灾检测技术领域,具体地说,提供一种基于图像的火灾检测方法,其包括以下步骤:一、将注意力机制和剪枝技术融入DenseNet网络建立深度迁移学习模型;二、创建数据集对深度迁移学习模型进行训练;三、采集视频图像,通过深度迁移学习模型对视频图像进行火灾检测。本发明提出一种结合了注意力机制和剪枝技术的迁移学习模型,用于火烟和火焰的检测,本发明具有高水平的检测准确性和效率,同时具备强大的泛化能力和鲁棒性。
-
公开(公告)号:CN114220046B
公开(公告)日:2023-05-26
申请号:CN202111414904.5
申请日:2021-11-25
Applicant: 中国民用航空飞行学院
Abstract: 本发明涉及火灾图像处理技术领域,涉及一种基于灰色综合关联度的火灾图像模糊隶属度识别方法,包括:1、读入待检图像和常规图像,对常规图像进行偏色因子提取,判断常规图像类别,同时确定相应的阈值大小;2、对待检图像和常规图像的偏色因子方差进行罗曼洛夫斯基准则优化和区间值化算子数据优化,并对数据进行归一的预处理,同时生成待检图像偏色因子向量和常规图像偏色因子向量;3、根据相对关联度、接近关联度及最小二乘灰色关联度求解方法,求取综合灰色关联度;4、基于最大隶属度原则判断待检图像是否为火灾图像。本发明较佳地提高火灾现场救援过程目标识别的准确度。
-
公开(公告)号:CN114220046A
公开(公告)日:2022-03-22
申请号:CN202111414904.5
申请日:2021-11-25
Applicant: 中国民用航空飞行学院
Abstract: 本发明涉及火灾图像处理技术领域,涉及一种基于灰色综合关联度的火灾图像模糊隶属度识别方法,包括:1、读入待检图像和常规图像,对常规图像进行偏色因子提取,判断常规图像类别,同时确定相应的阈值大小;2、对待检图像和常规图像的偏色因子方差进行罗曼洛夫斯基准则优化和区间值化算子数据优化,并对数据进行归一的预处理,同时生成待检图像偏色因子向量和常规图像偏色因子向量;3、根据相对关联度、接近关联度及最小二乘灰色关联度求解方法,求取综合灰色关联度;4、基于最大隶属度原则判断待检图像是否为火灾图像。本发明较佳地提高火灾现场救援过程目标识别的准确度。
-
公开(公告)号:CN112668426A
公开(公告)日:2021-04-16
申请号:CN202011512225.7
申请日:2020-12-19
Applicant: 中国民用航空飞行学院
IPC: G06K9/00 , G06K9/46 , G06T7/90 , G06F16/583 , G06F17/18
Abstract: 本发明涉及一种基于三种色彩模式的火灾图像偏色度量化方法,所述偏色度量化方法包括:采集常规场景和火灾场景下针对三种时空情景下的图像,形成火灾现场偏色检测图像库;计算图像分别在RGB、HSV和YCbCr三种色彩模式下的偏色因子方差var的大小及其偏色度;通过统计学分析方法对常规场景和火灾场景下三种时空情景图像的偏色规律和火灾场景对物体颜色失真影响进行分析。本发明的优点在于:有效避免了主流方法易受图像形成过程色温变化和数据测量的偶然误差的综合影响,提高火灾现场救援过程目标识别的准确度,在火灾场景目标识别中具有较强的技术指导和实际应用价值。
-
公开(公告)号:CN118658197A
公开(公告)日:2024-09-17
申请号:CN202410549030.1
申请日:2024-05-06
Applicant: 中国民用航空飞行学院
IPC: G06V40/20 , G06V10/764 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明涉及动作识别技术领域,提供一种基于图像的健身瑜伽动作识别方法,包括:1:加载瑜伽运动图像;2:对图像应用Mixup图像增强;3:利用ResNet从图像中提取深层特征,并加载ResNet的预训练权重;4:利用VGGNet提取深层特征,并加载VGGNet的预训练权重;5:使用ResNet和VGGNet堆叠提取的特征以创建新的高阶特征;6:使用多头注意力处理堆叠特征;7:将多头注意力处理后的特征扁平化为向量;8:利用线性层进行分类,输出最终瑜伽姿势的每个类别的概率。本发明能较佳地识别基于图像的瑜伽运动特征。
-
公开(公告)号:CN117918783A
公开(公告)日:2024-04-26
申请号:CN202311663346.5
申请日:2023-12-06
Applicant: 中国民用航空飞行学院
IPC: A61B5/00 , A61B5/0205 , A61B5/22 , A61B5/107 , G06Q10/0639
Abstract: 本发明涉及体质健康评估技术领域,涉及一种基于核心素养能力的大学生体质健康云评价方法,其包括以下步骤:一、初步筛选基于核心素养能力的大学生体质健康评价指标,并基于相关性分析法对指标进行优化,形成优化的大学生核心素养能力评价指标体系;二、进行评价标准云、评价指标权重云、体质健康评价云的确定,构建大学生体质健康云评价模型;三、基于核心素养能力与云评价模型对待评估样本进行分析。本发明不仅能够直观有效的分析基于核心素养能力的大学生体质健康综合表现,还可以进一步分析大学生的身体形态、身体机能、身体素质等深层指标的具体表现。
-
公开(公告)号:CN117727220A
公开(公告)日:2024-03-19
申请号:CN202410045841.8
申请日:2024-01-12
Applicant: 中国民用航空飞行学院
IPC: G09B9/28
Abstract: 本发明公开了一种飞行模拟教学设备,包括方向手柄机构、速度感应式变阻力机构和主动式变阻力机构。本发明属于飞行器控制模拟技术领域,具体是指一种飞行模拟教学设备;本发明为了对操作手柄自身的运动速度进行检测,本发明创造性地提出了速度感应式变阻力机构,通过只能允许液体缓慢流过的阻流孔,实现滑动阻力随着滑动速度的增加而增加的目的,从而实现了操作阻力随着操作速度的增大而增大的技术效果。
-
公开(公告)号:CN114818883A
公开(公告)日:2022-07-29
申请号:CN202210363855.5
申请日:2022-04-07
Applicant: 中国民用航空飞行学院
IPC: G06K9/62 , G06N5/00 , G06V10/56 , G06V10/774 , G06V10/80
Abstract: 本发明公开了一种基于颜色特征最优组合的CART决策树火灾图像识别方法,包括如下步骤:构建火灾图像与非火灾图像样本集,并随机划分为训练样本集和测试样本集;基于Lab、RGB、HSV三种色彩模式提取火灾与非火灾样本库颜色特征;在Lab、RGB、HSV色彩模式下分别基于精细决策树寻找最优特征,得到最优特征组合集;基于得到的最优特征组合集以及训练样本集进行CART决策树模型的训练,得到最优CART决策树模型;将测试样本集输入到最优CART决策树模型,完成火灾图像的识别。本发明基于火灾图像颜色特征融合CART决策树进行火灾图像方法的识别,对火灾图像进行识别时准确率较高,其效果明显优于其他决策树类方法,能够更好的表征图像火灾类型,为火灾事故预防提供方法基础。
-
公开(公告)号:CN114242241A
公开(公告)日:2022-03-25
申请号:CN202111356260.9
申请日:2021-11-16
Applicant: 中国民用航空飞行学院
Abstract: 本发明涉及体质健康评估技术领域,具体地说,涉及一种大学生体质健康群体自适应评估方法,其包括以下步骤:1)、最小二乘集结主客观权重确定最终权重;包括:基于AHP计算评估属性主观权重;基于CRITIC计算评估属性客观权重;基于最小二乘集结计算综合权重。2)、基于综合指标表征的大学生体质健康加权TOPSIS进行评估;包括:建立决策矩阵,构建加权决策矩阵,确定正负理想解,计算距离,相对贴近度与优选次序,判定体质健康类型。本发明能较佳地对大学生体质健康进行评估。
-
公开(公告)号:CN116681982A
公开(公告)日:2023-09-01
申请号:CN202310529518.3
申请日:2023-05-11
Applicant: 中国民用航空飞行学院
IPC: G06V10/82 , G06V10/774 , G06V40/20 , G06N3/0464 , G06N3/045 , G06N3/096
Abstract: 本发明公开了一种基于深度残差网络与迁移学习的健身瑜伽动作识别方法,包括如下步骤:采集健身瑜伽动作图像数据,构成数据集;对数据集中的数据进行预处理;将处理后的数据集划分为训练集和测试集;构建基于ResNet34的深度迁移学习网络,并将已有的预训练权重输入到ResNet34网络进行训练,得到基于迁移学习的模型;将训练集输入到模型中进行模型训练和参数调参,得到最优模型;将测试集数据输入到最优模型,输出健身瑜伽动作识别结果。本发明将深度残差网络和迁移学习模型相结合进行健身瑜伽动作的智能识别,优化网络模型后准确率达到94.57%,训练损失降至0.0508,训练时间成本仅为3.3s/it。
-
-
-
-
-
-
-
-
-