-
公开(公告)号:CN117036829A
公开(公告)日:2023-11-10
申请号:CN202311278518.7
申请日:2023-10-07
Applicant: 之江实验室 , 中国科学院东北地理与农业生态研究所
IPC: G06V10/764 , G06V10/774 , G06V10/82 , G06V10/74 , G06N3/0464 , G06N3/08
Abstract: 一种基于原型学习实现标签增强的叶片细粒度识别方法和系统,包括:构建细粒度叶片分类数据集;将训练图像输入模型并得到最后一层卷积网络输出的特征向量,按照图像类别标签获取每个类的平均特征值;将训练图像输入上述卷积网络,计算其在最后一个卷积层输出的向量与所有原型特征的相似度;将上述相似度结果与输入图像的真实标签进行加权融合,获得软标签;根据输入图像的真实标签,对原型特征库中对应的原型向量进行迭代更新;获取输入图像经过网络分类层输出的预测标签;将预测标签与软标签进行相似度计算,作为损失函数指导整个系统的训练;将待测图像输入训练完成的网络进行分类预测,根据预测的标签分布确定图像类别。
-
公开(公告)号:CN116072214B
公开(公告)日:2023-07-11
申请号:CN202310202392.9
申请日:2023-03-06
Applicant: 之江实验室
Abstract: 本发明公开了基于基因显著性增强的表型智能预测、训练方法及装置,通过基因形态与表型高低构建实际分布列联表,再根据卡方假设,构建基因形态与表型高低的期望分布列联表,对每个基因位点与表型进行卡方检验,基于卡方列联表得卡方假设成立的概率,得到基因位点对表型的显著性值,同时,对基因进行编码;然后根据每个基因位点的显著性值对基因的编码进行放大,从而增强基因数据与表型的关联度,大大提高了基于基因位点预测表型的精度。本发明针对染色体为双倍体的生物,采用深度学习训练的方法,通过增强基因位点的数据,从而提高基因位点到表型的预测精度。
-
公开(公告)号:CN116072214A
公开(公告)日:2023-05-05
申请号:CN202310202392.9
申请日:2023-03-06
Applicant: 之江实验室
Abstract: 本发明公开了基于基因显著性增强的表型智能预测、训练方法及装置,通过基因形态与表型高低构建实际分布列联表,再根据卡方假设,构建基因形态与表型高低的期望分布列联表,对每个基因位点与表型进行卡方检验,基于卡方列联表得卡方假设成立的概率,得到基因位点对表型的显著性值,同时,对基因进行编码;然后根据每个基因位点的显著性值对基因的编码进行放大,从而增强基因数据与表型的关联度,大大提高了基于基因位点预测表型的精度。本发明针对染色体为双倍体的生物,采用深度学习训练的方法,通过增强基因位点的数据,从而提高基因位点到表型的预测精度。
-
公开(公告)号:CN114972976A
公开(公告)日:2022-08-30
申请号:CN202210902801.1
申请日:2022-07-29
Applicant: 之江实验室
Abstract: 本发明公开了基于频域自注意力机制的夜间目标检测、训练方法及装置,采用具有夜间图像检测标签的开源数据集训练检测网络,首先将输入图像进行预处理,使其从RGB转化为YUV通道,分别将三个通道的图像划分成多个区块;对于三个通道的各个区块,分别进行DCT离散余弦变换;将各个区块中属于同一频域的信息依据其原本的空间关系存入同一通道中,生成数个代表不同频域的通道;将所有频域通道输入自注意力网络模块,该模块通过计算各通道之间的可缩放点积自注意力,输出每个通道动态加权后的数值,再将其分别输入相同的多层感知器MLP;将输出结果输入检测网络中,最终获得图像的检测结果。
-
公开(公告)号:CN113255793A
公开(公告)日:2021-08-13
申请号:CN202110607551.4
申请日:2021-06-01
Applicant: 之江实验室
Abstract: 本发明公开了一种基于对比学习的细粒度舰船识别方法,采集并标注舰船分类数据集,并对每张图像采用几种不同的数据增强方式获得图像集合,依次组合成同类与非同类图像集合对,交替输入孪生分类网络进行图像特征提取与分类,通过三个损失函数分别提取图像的等变性特征、判别性特征以及多维融合特征,最终实现同类别舰船分类相同,不同类别舰船之间可有效区分的效果。本发明弥补了舰船类别分布不平衡、样本规模较小的实际问题,通过对比学习有效提升了细粒度分类的性能,通过提取等变特征提高了模型的泛化性,能适用于实战多变场景。
-
公开(公告)号:CN112580614A
公开(公告)日:2021-03-30
申请号:CN202110210499.9
申请日:2021-02-25
Applicant: 之江实验室
Abstract: 本发明公开了一种基于注意力机制的手绘草图识别方法,该方法包括将原始手绘草图输入到一个深度卷积神经网络中,得到最后一个卷积层输出的特征图;将特征图输入到一个通道注意力模块中,得到基于通道注意力优化后的特征图;训练一个用于预测手绘草图垂直翻转的分类网络,将原始手绘草图输入到训练好的分类网络中,得到垂直翻转空间注意力图;联合基于通道注意力优化后的特征图和垂直翻转空间注意力图,计算得到垂直翻转空间注意力优化后的特征图;最后经过全连接层输出识别的结果。本发明的优点:采用通道注意力和垂直翻转空间注意力对卷积神经网络的特征进行优化,能够使网络关注于学习更有判别力的部分,从而有效提高手绘草图的识别精度。
-
公开(公告)号:CN112434723A
公开(公告)日:2021-03-02
申请号:CN202011163778.6
申请日:2020-10-27
Applicant: 之江实验室
Abstract: 本发明公开了一种基于注意力网络的日/夜间图像分类及物体检测方法,该方法首先采集街道摄像头监控视频处理成图像进行标注,结合开源的街道数据集共同构建图像数据集;通过基于特征金字塔的深度卷积神经网络提取图像的表观特征;在所提取特征上预测图像的日/夜属性,并捕获表征日/夜间物体的注意图;基于注意力图对提取的特征图进行加权;最后根据预测的日/夜属性将加权后的特征图输入对应日/夜间的检测头做位置回归与物体分类。本发明旨在通过注意力机制使网络关注到日/夜间的不同特征,并通过两个分支分别完成日/夜间物体的检测,能够提升日/夜间物体检测的性能,可用于街道智能监控系统。
-
公开(公告)号:CN117095240A
公开(公告)日:2023-11-21
申请号:CN202311332316.6
申请日:2023-10-16
Applicant: 之江实验室 , 中国科学院东北地理与农业生态研究所
IPC: G06V10/764 , G06V10/44 , G06V10/42 , G06V10/26 , G06V10/82 , G06N3/0464 , G06N3/094
Abstract: 一种基于细粒度特征的叶片分类方法和系统,其方法包含:叶片图像随机混乱模块对同一类的两张叶片图像分区块之后,再把所有区块进行随机重组,得到两张相同数量和尺寸的重组叶片图像,以混乱叶片的全局特征;使用深度学习网络提取叶片的原图特征和重组图特征:训练时,在特征层后面加全连接层,并计算分类损失和对抗损失向前传播;测试时,使用模型便可以提取原图的局部细粒度特征和全局特征,从而实现对叶片的分类。本发明对叶片图像进行重组,模型在重组图像上得不到全局特征时,将专注于学习叶片的局部细粒度特征,而原始图像的输入又可以提供模型全局特征的学习,从而大大提高叶片分类的精度。
-
公开(公告)号:CN117079060A
公开(公告)日:2023-11-17
申请号:CN202311325300.2
申请日:2023-10-13
Applicant: 之江实验室 , 中国科学院东北地理与农业生态研究所
IPC: G06V10/764 , G06V10/774 , G06V10/25 , G06V20/40 , G06V10/82 , G06N3/0442 , G06N3/0464 , G06N3/045
Abstract: 一种基于光合信号的叶片智能分类方法和系统,其方法包含:叶片光合信号提取、叶片光合信号分类。叶片光合信号提取通过叶片检测模型提取出视频中的叶片,使用分割算法对提取出的叶片进行分割,从而分割出叶片区块,然后以叶片区块内的像素均值记为当前帧的光合信号值,视频的多帧连续光合信号值即组成此叶片的光合信号。叶片光合信号分类使用神经网络对采集到的叶片光合信号进行特征提取训练,来实现叶片的分类。本发明提出一种基于植物叶片的光合信号,确定其提取方法,并针对植物叶片的光合信号变化,采用深度学习训练的方式,提取出植物叶片与其光合信号变化的相关性,从而大大提高叶片分类的精度。
-
公开(公告)号:CN113255793B
公开(公告)日:2021-11-30
申请号:CN202110607551.4
申请日:2021-06-01
Applicant: 之江实验室
Abstract: 本发明公开了一种基于对比学习的细粒度舰船识别方法,采集并标注舰船分类数据集,并对每张图像采用几种不同的数据增强方式获得图像集合,依次组合成同类与非同类图像集合对,交替输入孪生分类网络进行图像特征提取与分类,通过三个损失函数分别提取图像的等变性特征、判别性特征以及多维融合特征,最终实现同类别舰船分类相同,不同类别舰船之间可有效区分的效果。本发明弥补了舰船类别分布不平衡、样本规模较小的实际问题,通过对比学习有效提升了细粒度分类的性能,通过提取等变特征提高了模型的泛化性,能适用于实战多变场景。
-
-
-
-
-
-
-
-
-