-
公开(公告)号:CN114648723B
公开(公告)日:2024-08-02
申请号:CN202210454687.0
申请日:2022-04-28
IPC: G06V20/40 , G06V20/52 , G06N3/0464 , G06N3/0895 , G06N3/084
Abstract: 本发明涉及智能视频监控及深度学习领域,尤其涉及一种基于时间一致性对比学习的动作规范性检测方法和装置,该方法为:首先将第一数量标注和第二数量未标注的通过摄像头采集的视频构建数据集,第一数量小于第二数量;然后将未标注视频经过强弱数据增强后提取特征,再输入时间一致性行为对齐网络,输出特征图和不同样本间相似动作起始与结束帧集合,映射集合在特征图上对应子特征图,构造同类与不同类子特征图样本,送入对比学习网络提取时空判别性特征;再将第一数量标注视频送入预训练后的网络进行迁移学习,输出行为类别;最后通过帧间行为类别变化判断行为规范性,若不规范则发出预警。
-
公开(公告)号:CN117058492A
公开(公告)日:2023-11-14
申请号:CN202311322535.6
申请日:2023-10-13
Applicant: 之江实验室 , 中国科学院东北地理与农业生态研究所
IPC: G06V10/774 , G06V10/764 , G06V10/82 , G06V20/70 , G06N3/09 , G06N5/04
Abstract: 一种基于学习解耦的两阶段训练病害识别方法和系统,其方法包括:步骤S1:采集待识别作物的图像样本,制作训练数据集;步骤S2:构造基于学习解耦的分类算法网络模型;步骤S3:对基于学习解耦的分类算法模型进行一阶段训练;步骤S4:固定部分权重,对基于学习解耦的分类算法模型进行二阶段训练;步骤S5:基于训练得到的基于学习解耦的分类算法模型进行推理,最终得到待分类目标叶片的病害种类和病害等级。本发明具有准确度高,标注成本极低,且可实现单模型对病害种类和病害等级进行细分类识别。
-
公开(公告)号:CN117011316A
公开(公告)日:2023-11-07
申请号:CN202311278665.4
申请日:2023-10-07
Applicant: 之江实验室 , 中国科学院东北地理与农业生态研究所
Abstract: 一种基于CT图像的大豆茎秆内部结构辨识方法和系统,该方法包括:步骤一,将大豆盆栽放入植物CT采集设备,利用micro‑CT设备对大豆植株进行从上而下的扫描,得到采集的大豆茎秆CT图像数据;步骤二,对采集的CT图像数据集进行数据增强,引入扩散模型对数据进行超分辨处理,获取更丰富的组织细节信息;步骤三,对CT图像进行分割,得到大豆茎秆内部的组织结构的分割图;步骤四,根据分割结果进行体积重建,获得网格化数据,获得分割区域的体积、表面积等参数。本发明利用CT技术对大豆全生命周期的茎秆内部组织进行捕获,避免了传统破坏式捕获大豆植株内部信息,能有效提升大豆植株茎秆内部结构辨识的细粒度,实现精准精细的表型识别。
-
公开(公告)号:CN116721412A
公开(公告)日:2023-09-08
申请号:CN202310406872.7
申请日:2023-04-17
Applicant: 之江实验室 , 中国科学院东北地理与农业生态研究所
IPC: G06V20/68 , G06V10/82 , G06V10/774 , G06V10/776 , G06V10/40 , G06N3/0464 , G06N3/09
Abstract: 一种自下而上的基于结构性先验的豆荚关键点检测方法,自定义不同类型豆荚中豆粒的关键点含义,构建了包含主干网络、豆粒位置置信度热力图子网络、部位亲和域子网络、结构先验子网络四部分的自下而上的豆粒关键点检测网络,可实现先利用位置置信度检测得到所有的豆粒位置,然后结合部位亲和域积分计算,利用匈牙利算法得到豆粒之间的最优匹配连接关系,从而提取到豆荚的数量和豆荚的类型。特别的,在训练阶段通过添加结构先验子网络,提升模型的准确率。还包括一种自下而上的基于结构性先验的豆荚关键点检测系统。本发明从豆荚形态上确定豆荚类型,可快速同时检测多个豆荚,并定位得到豆荚中每个豆粒的位置。
-
公开(公告)号:CN116071635A
公开(公告)日:2023-05-05
申请号:CN202310202530.3
申请日:2023-03-06
IPC: G06V10/82 , G06V10/774 , G06N3/08
Abstract: 本发明公开了基于结构性知识传播的图像识别方法与装置,将标注的样本图片划分为训练集和测试集;选定第一神经网络模型,经训练集的训练,得到训练好的第一神经网络模型;选定第二神经网络模型,并从第一神经网络模型和第二神经网络模型中,选取中间层,作为进行知识传播的特征层;得到第二神经网络模型中中间层特征表达的结构性知识,与第一神经网络模型特征表达对应位置的结构性知识,构建中间层特征表达知识传播的损失函数,结合任务相关损失函数,使用训练集训练第二神经网络模型,得到训练好的第二神经网络模型;部署应用训练好的第二神经网络模型,对测试集的待识别图片进行图像识别。
-
公开(公告)号:CN116030272A
公开(公告)日:2023-04-28
申请号:CN202310323818.6
申请日:2023-03-30
IPC: G06V10/44 , G06V10/82 , G06V10/774
Abstract: 本发明属于人工智能算法技术领域,涉及一种基于信息抽取的目标检测方法、系统和装置,该方法包括:步骤一,对原始输入图片进行序列化处理,得到图片序列,即将图片按行或列转换成两组序列:行序列和列序列;步骤二,对行序列和列序列进行标签标注,得到对应序列的真实标签;步骤三,利用所述真实标签,输入所述的图片序列,训练一个基于循环神经网络的信息抽取模型,对行序列和列序列分别进行目标信息的抽取,得到行序列和列序列的预测标签;步骤四,根据行序列和列序列的预测标签,确定目标在图片中的位置。本发明利用序列信息抽取的方法来进行目标检测,能够提取原始图片的全局信息进行目标检测,同时不需要生成侯选框,提高算法的精度和效率。
-
公开(公告)号:CN113837152B
公开(公告)日:2022-04-15
申请号:CN202111410772.9
申请日:2021-11-25
Applicant: 之江实验室
IPC: G06V30/413 , G06V30/14 , G06V30/19 , G06K9/62 , G06N3/08
Abstract: 本发明公开了一种表格图片文本智能检测方法及系统,系统包含文本自动检测模块、位置变换矩阵模块和位置加权模块。方法包括:S1,检测目标表格图片当中所有可能的文本;S2,自动生成相对位置关系的变换矩阵;S3,通过位置加权,计算最终检测结果。本发明针对表格图片文本,采用深度学习训练的方式,通过将通用自动文本检测方法与表格文本之间相对位置相结合,不仅依赖于文本目标自身的位置,还依赖于文本间的相对位置关系,最终以位置变换矩阵的形式表示,还通过对目标检测结果进行加权来确认每个目标的具体位置,从而提高表格图片文本检测精度。
-
公开(公告)号:CN114098691A
公开(公告)日:2022-03-01
申请号:CN202210090684.3
申请日:2022-01-26
Abstract: 本发明涉及非接触式生理信号检测领域,尤其涉及一种基于混合高斯模型的脉搏波身份认证方法、装置和介质,该方法首先利用血氧仪获取到的用户手指脉搏波信号,将脉搏波信号输入到手工特征提取模块中提取时域和频域特征并分别将其处理为动态特征,将得到的时域和频域的动态特征分别输入到特征提取网络中提取频域和时域的深层次特征;进一步的,将上一步得到的两种深层次特征通过概率线性判别分析算法进行特征筛选;最后,将筛选后的特征利用混合高斯模型算法进行身份识别。本方法能够有效应用于基于脉搏波的生物识别系统中。
-
公开(公告)号:CN113892930A
公开(公告)日:2022-01-07
申请号:CN202111504748.1
申请日:2021-12-10
Applicant: 之江实验室
Abstract: 本发明公开了一种基于多尺度心率信号的面部心率测量方法。该方法将含有人脸面部区域的视频流逐帧进行皮肤分割,对特征提取模块进行训练,将人脸视频流输入训练好的特征提取模块中,输出为多个心率值,将所有输出心率值求平均,获得最终的心率预测值。本发明的方法可得到高精度心率估计值,实现无接触心率检测。
-
公开(公告)号:CN113827234A
公开(公告)日:2021-12-24
申请号:CN202111412880.X
申请日:2021-11-25
Applicant: 之江实验室
Abstract: 本发明属于非接触式生理信号检测领域,涉及一种基于高光谱人脸视频的远程脉搏波重建方法,首先利用高光谱相机录制人脸视频,将录制好的人脸视频输入到光谱通道选择网络中,经过处理得到降维之后的特征;进一步的,将上一步得到的降维之后的特征输入进特征提取网络,输出为一段特征向量,最终将特征向量输入到信号重建网络中,得到重建的脉搏波信号。本发明通过光谱通道选择网络对大量的高光谱数据进行降维,提高了之后的推理速度;其次,在特征提取网络中,通过在组合数据集上的预训练加速了模型的收敛,并且通过注意力机制提高了网络对重要特征的关注程度;最后,在信号重建网络中,利用多层LSTM提取到网络的时序特征并以此对信号进行重建。
-
-
-
-
-
-
-
-
-