-
公开(公告)号:CN112507827A
公开(公告)日:2021-03-16
申请号:CN202011370049.8
申请日:2020-11-30
Abstract: 本发明公开了一种智能视频打靶实时检测方法,包括如下步骤:获取射击打靶图像;将打靶图像转换为灰度图;采用高斯滤波对灰度图像进行预处理,减少图像中的噪声干扰;初始化获得有效第一帧图像为基准帧;计算当前帧与基准帧的帧差,对帧差图进行图像二值化,并采用中值滤波对二值化图像去噪;找出二值化图像中所有目标的轮廓,获得目标候选框;在进行弹孔检测;发现新的弹孔或者连续一组帧后未更新基准帧时,对基准帧进行更新;最后,通过统计每个弹孔在各靶环中的个数进行环值判定,获取射击打靶检测结果。本发明实现方法简单,可移植性强,速度快,能够实现对监控摄像头拍摄的打靶成绩的精准实时检测。
-
公开(公告)号:CN112257022A
公开(公告)日:2021-01-22
申请号:CN202011488325.0
申请日:2020-12-16
Abstract: 本发明公开了一种正实值概率幅度的快速测量估计方法,包括如下步骤:S1,给定任意角度,建立旋转算子门;S2,对待测量量子态进行张量积运算;S3,对上述结果进行交叉酉操作,获得待测量量子态概率幅度角和给定角度的差值概率幅度;S4,对差值概率幅度进行投影测量,并判断测量结果正负号,如果测量结果为零,则得到了要估计的结果,停止操作,给定角度即是待测量量子态对应概率幅度的角度;否则,根据正负号更新给定角度,如果结果是正值,则把估计值用二分法更新减少,如果结果是负值,则把估计值用二分法更新增加,重复步骤S1至S4预设的次数或重复直到测量结果为零后,停止操作。
-
公开(公告)号:CN111860471A
公开(公告)日:2020-10-30
申请号:CN202010993035.5
申请日:2020-09-21
Applicant: 之江实验室
Abstract: 本发明公开了一种基于特征检索的工服穿戴识别方法及系统,该方法包括特征检索库构建、行人检测、工服特征提取、工服检索识别四个步骤。人工选取不同类别工服中具有代表性的图像集,通过分类网络提取工服特征,构建特征检索库;将待测图像输入行人检测网络得到行人区域,裁剪图像中行人所在区域输入分类网络提取工服特征;将工服特征作为检索对象输入特征检索库,计算该对象与库中各特征的距离,最终输出该对象是否穿戴工服以及所穿工服的类别。本发明可通过简单的重建特征检索库实现对工服类别的灵活增减,有效避免重新训练模型的巨大成本,可用于工厂车间工服穿戴识别及警报系统。
-
公开(公告)号:CN111507317B
公开(公告)日:2020-10-23
申请号:CN202010613767.7
申请日:2020-06-30
Applicant: 之江实验室
Abstract: 本发明公开了一种基于视觉的旋转设备作业手套佩戴检测方法及系统,包括:获取生产车间中实时生成的监控视频图像,在监控视频图像中绘制凸多边形规则框,使得整个旋转设备落于规则框内;基于人体目标检测神经网络模型对监控视频图像进行人体目标检测,获得目标人体;基于人体骨骼关键点检测神经网络模型对目标人体进行人体关键点检测,获得处于规则框内的目标人体的双手关键点;对双手关键点进行区域分割,得到感兴趣区域,并对感兴趣区域进行初始分类;对初始分类后的感兴趣区域进行跟踪,并通过联合投票算法得到感兴趣区域的最终分类结果。本发明可以降低漏检,提高手套检测及分类的准确率,并通过多线程流水线处理模式降低整个处理过程的耗时。
-
公开(公告)号:CN111723786A
公开(公告)日:2020-09-29
申请号:CN202010851025.8
申请日:2020-08-21
Applicant: 之江实验室
Abstract: 本发明公开了一种基于单模型预测的安全帽佩戴检测方法及装置,该方法包括将原始图像输入到一个深度卷积神经网络中,在深度卷积神经网络的不同层中提取出原始图像的表观特征,并采用特征金字塔网络在表观特征上获取不同尺度的特征图;将不同尺度的特征图分别输入到坐标回归网络和行人识别网络中,分别输出在原始图像中检测到的行人目标的位置和识别的置信度,通过非极大值抑制方法找到最佳的目标边界框,并消除冗余的边界框;将不同尺度的特征图输入到基于注意力机制的安全帽佩戴分类网络中,最终得到行人目标是否佩戴安全帽的检测结果。通过单个模型来对监控摄像头拍摄的厂区、工地等作业场所中工作人员是否佩戴安全帽的精准识别。
-
公开(公告)号:CN113763471B
公开(公告)日:2024-11-08
申请号:CN202110997123.7
申请日:2021-08-27
IPC: G06T7/73 , G06T7/45 , G06T7/33 , G06V10/764 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种基于视觉的弹孔检测方法及系统,方法包括:S1,获取打靶弹孔图像数据集并进行弹孔标注;S2,构造一种卷积特征与纹理特征深度融合的超轻量化网络,并基于弹孔图像数据,进行模型训练得到检测模型;S3,基于训练得到的检测模型进行推理,获取单帧弹孔检测结果;S4,基于多帧检测结果,构建当前帧的弹孔积分图;S5,基于当前帧弹孔积分图与前一帧的弹孔积分图,进行匹配和帧差,获取当前帧的新增弹孔;系统包括:聚焦层、嵌套瓶颈层、卷积层,以及由单尺度目标回归子网络、纹理特征提取单元、特征融合与优选模块构成的特征融合与单尺度目标回归模块;本发明降低了资源消耗,且检测准确度、鲁棒性好。
-
公开(公告)号:CN118279610B
公开(公告)日:2024-08-30
申请号:CN202410704308.8
申请日:2024-06-03
Applicant: 之江实验室 , 中国科学院东北地理与农业生态研究所
Abstract: 本发明公开了一种基于图像表型匹配的大豆表型识别方法、电子设备、介质,包括:获取待识别的大豆图片;将其输入至预先训练好的图像编码器中提取得到图像特征,将图像特征输入至预先训练好的表型解码器中得到大豆图片获得表型结果;其中,图像编码器以及表型解码器的训练过程包括:获取大豆成熟期图像并对其设置表型标签和数组标签;将大豆成熟期图像及其对应的表型标签分别输入至图像编码器、表型编码器,从而训练图像编码器、表型编码器;固定表型编码器的网络权重;将表型标签输入至表型编码器提取得到表型特征,将表型特征输入至表型解码器提取得到表型结果识别特征,基于表型结果识别特征与数组标签间的差值从而反向传播优化表型解码器。
-
公开(公告)号:CN117593652B
公开(公告)日:2024-05-14
申请号:CN202410075345.7
申请日:2024-01-18
Applicant: 之江实验室
IPC: G06V20/10 , G06V10/26 , G06V10/82 , G06V10/774 , G06N3/0464
Abstract: 本发明公开了一种智能识别大豆叶片叶形的方法和系统,方法包括以下步骤:构建包含完整大豆叶片图像的训练集对基于深度卷积神经网络的大豆叶片检测分割模型进行训练,将待检测的大豆叶片图像输入训练好的大豆叶片检测分割模型并输出每张图像中分割出的大豆叶片图像;基于分割出的大豆叶片图像,采用最小外接矩形法计算叶长和叶宽,进而计算得到大豆叶片长宽比;将分割出的大豆叶片图像切分为若干区域,基于大豆叶片长宽比及各区域的叶片像素量判定大豆叶片叶形。本发明能够实现对大豆叶片叶形的自动高效识别,识别精度和速度高,适用于智能识别大豆品种等实战部署场景。
-
公开(公告)号:CN116703820B
公开(公告)日:2024-05-03
申请号:CN202310406884.X
申请日:2023-04-17
Applicant: 之江实验室 , 中国科学院东北地理与农业生态研究所
IPC: G06T7/00 , G06T7/70 , G06N3/0464 , G06N3/084 , G06V10/82 , G06V10/774
Abstract: 一种基于热力图的高密度豆粒计数及中心点定位方法,用高斯函数生成高斯核模板,结合已标记的豆粒中心点位置,生成用于豆粒计数的真值热力图;采用基于空洞卷积的CSRNet作为密度图估计模块,将原始图像与真值热力图输入到模型中计算得到与原始图像同大小的热力图,通过对比预测热力图与真值热力图的L2损失进行参数的学习,实现高质量的热力图估计。对于待测试图像,使用CSRNet预测热力图,再通过判断局部最大位置点,从热力图中获取得到所有中心点的位置坐标,并通过局部中心点热力图的值取整获得豆粒数。还包括一种基于热力图的高密度豆粒计数及中心点定位系统。本发明可提高豆粒计数模型在高密度、遮挡严重场景下的计数准确性。
-
公开(公告)号:CN117851883A
公开(公告)日:2024-04-09
申请号:CN202410006211.X
申请日:2024-01-03
Applicant: 之江实验室
IPC: G06F18/241 , G06F18/213 , G06F18/25 , G06F18/27 , G06V10/764 , G06V10/82 , G06N3/0455
Abstract: 本发明公开了一种基于跨模态大语言模型的场景文本检测与识别方法,该方法包括:获取多组具有真值标注的图像‑文本数据集;利用图像编码器对数据集中的图像进行特征提取与学习,得到图像模态的特征嵌入;将图像模态特征嵌入与对应真值标注的文本特征嵌入融合构造为图像及自然语言的多模态特征序列;将融合后的多模态特征序列输入大语言模型当中进行跨模态编解码,再进行自回归机制下的网络微调;将文本图像输入上述训练好的图像编码器与大语言模型当中,通过线性分类与类目查表的方式将网络输出翻译为当前图片当中所包含的文本目标的内容及位置,从而完成文本检测与识别任务。本发明实现方法简便,灵活鲁棒,适用范围广。
-
-
-
-
-
-
-
-
-