-
公开(公告)号:CN117314755A
公开(公告)日:2023-12-29
申请号:CN202311605122.9
申请日:2023-11-29
Applicant: 之江实验室 , 中国科学院东北地理与农业生态研究所
IPC: G06T3/40 , G06T5/00 , G06T7/00 , G06V20/70 , G06V10/774 , G06V10/80 , G06V10/82 , G06N3/0455 , G06N3/0464 , G06N3/0475 , G06N3/0895
Abstract: 本发明公开了一种基于跨模态图像生成的多视角植株生成方法和装置,属于农业方面的图像处理领域,包括:采集植株图像并标注文本信息;基于图像和文本对文本图像映射模型进行训练微调并冻结,得到图像和文本的内嵌向量;基于图像和文本的内嵌向量,构建基于扩散模型的包含文本图像先验模块和图像编码器模块的图像生成模型并训练;实际推理阶段根据基因型‑表型预测模型得到的目标植株表型数据,引导图像生成模型生成多视角小图,并输入图像超分辨模块得到高分辨率的目标植株图像。本发明采用扩散模型构建图像生成模型和图像超分辨模块,能够实现生成效率高、可扩展性强且生成图像质量高的植株表型数据可视化图像预测,为可视育种提供支撑。
-
公开(公告)号:CN117011316B
公开(公告)日:2024-02-06
申请号:CN202311278665.4
申请日:2023-10-07
Applicant: 之江实验室 , 中国科学院东北地理与农业生态研究所
IPC: G06T7/11 , G06T7/00 , G06T5/70 , G06T3/4053 , G06T7/62
Abstract: 一种基于CT图像的大豆茎秆内部结构辨识方法和系统,该方法包括:步骤一,将大豆盆栽放入植物CT采集设备,利用micro‑CT设备对大豆植株进行从上而下的扫描,得到采集的大豆茎秆CT图像数据;步骤二,对采集的CT图像数据集进行数据增强,引入扩散模型对数据进行超分辨处理,获取更丰富的组织细节信息;步骤三,对CT图像进行分割,得到大豆茎秆内部的组织结构的分割图;步骤四,根据分割结果进行体积重建,获得网格化数据,获得分割区域的体积、表面积等参数。本发明利用CT技术对大豆全生命周期的茎秆内部组织进行捕获,避免了传统破坏式捕获大豆植株内部信息,能有效提升大豆植株茎秆内部结
-
公开(公告)号:CN117036829A
公开(公告)日:2023-11-10
申请号:CN202311278518.7
申请日:2023-10-07
Applicant: 之江实验室 , 中国科学院东北地理与农业生态研究所
IPC: G06V10/764 , G06V10/774 , G06V10/82 , G06V10/74 , G06N3/0464 , G06N3/08
Abstract: 一种基于原型学习实现标签增强的叶片细粒度识别方法和系统,包括:构建细粒度叶片分类数据集;将训练图像输入模型并得到最后一层卷积网络输出的特征向量,按照图像类别标签获取每个类的平均特征值;将训练图像输入上述卷积网络,计算其在最后一个卷积层输出的向量与所有原型特征的相似度;将上述相似度结果与输入图像的真实标签进行加权融合,获得软标签;根据输入图像的真实标签,对原型特征库中对应的原型向量进行迭代更新;获取输入图像经过网络分类层输出的预测标签;将预测标签与软标签进行相似度计算,作为损失函数指导整个系统的训练;将待测图像输入训练完成的网络进行分类预测,根据预测的标签分布确定图像类别。
-
公开(公告)号:CN117314755B
公开(公告)日:2024-02-13
申请号:CN202311605122.9
申请日:2023-11-29
Applicant: 之江实验室 , 中国科学院东北地理与农业生态研究所
IPC: G06T3/4053 , G06T3/4046 , G06T5/60 , G06T5/70 , G06T7/00 , G06V20/70 , G06V10/774 , G06V10/80 , G06V10/82 , G06N3/0455 , G06N3/0464 , G06N3/0475 , G06N3/0895
Abstract: 本发明公开了一种基于跨模态图像生成的多视角植株生成方法和装置,属于农业方面的图像处理领域,包括:采集植株图像并标注文本信息;基于图像和文本对文本图像映射模型进行训练微调并冻结,得到图像和文本的内嵌向量;基于图像和文本的内嵌向量,构建基于扩散模型的包含文本图像先验模块和图像编码器模块的图像生成模型并训练;实际推理阶段根据基因型‑表型预测模型得到的目标植株表型数据,引导图像生成模型生成多视角小图,并输入图像超分辨模块得到高分辨率的目标植株图像。本发明采用扩散模型构建图像生成模型和图像超分辨模块,
-
公开(公告)号:CN117011316A
公开(公告)日:2023-11-07
申请号:CN202311278665.4
申请日:2023-10-07
Applicant: 之江实验室 , 中国科学院东北地理与农业生态研究所
Abstract: 一种基于CT图像的大豆茎秆内部结构辨识方法和系统,该方法包括:步骤一,将大豆盆栽放入植物CT采集设备,利用micro‑CT设备对大豆植株进行从上而下的扫描,得到采集的大豆茎秆CT图像数据;步骤二,对采集的CT图像数据集进行数据增强,引入扩散模型对数据进行超分辨处理,获取更丰富的组织细节信息;步骤三,对CT图像进行分割,得到大豆茎秆内部的组织结构的分割图;步骤四,根据分割结果进行体积重建,获得网格化数据,获得分割区域的体积、表面积等参数。本发明利用CT技术对大豆全生命周期的茎秆内部组织进行捕获,避免了传统破坏式捕获大豆植株内部信息,能有效提升大豆植株茎秆内部结构辨识的细粒度,实现精准精细的表型识别。
-
公开(公告)号:CN116884481A
公开(公告)日:2023-10-13
申请号:CN202310697601.1
申请日:2023-06-13
Applicant: 之江实验室 , 中国科学院东北地理与农业生态研究所
IPC: G16B20/30 , G06N3/0464 , G06N3/0895 , G16B20/00
Abstract: 一种基于图卷积神经网络与自监督重构学习的基因到表型预测方法和系统,该方法基于图卷积神经网络的方法,将每个品种的大豆作为图节点,大豆的基因序列为节点的特征,利用每个品种大豆之间的亲缘关系作为图的边,将构建的图输入图卷积神经网络与自监督重构网络中,更新节点特征,实现大豆基因到表型的预测。本发明创新性的利用图卷积神经网络实现基因到表型的预测,利用自监督学习降低基因维度,并将品种之间的亲缘关系作为先验关联不同品种指导基因到表型挖掘,提高表型预测的效果。
-
公开(公告)号:CN114022727B
公开(公告)日:2024-04-26
申请号:CN202111221950.3
申请日:2021-10-20
Applicant: 之江实验室
IPC: G06V10/774 , G06V10/82 , G06N3/0464 , G06N3/09
Abstract: 本发明公开了本发明公开一种基于图像知识回顾的深度卷积神经网络自蒸馏方法,该方法首先针对目标网络设置辅助网络,在目标网络的下采样层引出分支,采用知识回顾的思路依次融合和连接各个分支,在训练过程中,通过监督学习以及采用目标网络的下采样层向引出分支层进行学习的方式,达到自蒸馏的目的。本发明在深度卷积神经网络自蒸馏领域引入知识回顾的思路,提高了深度卷积神经网络的训练精度;采用辅助网络的形式进行自蒸馏,相对使用数据增强来拉进类内距离的自蒸馏方法,在实际应用中更加简洁方便。
-
公开(公告)号:CN117830422A
公开(公告)日:2024-04-05
申请号:CN202311729942.9
申请日:2023-12-15
Applicant: 之江实验室
IPC: G06T7/80
Abstract: 本发明公开了一种基于多Aruco码的多相机外参标定方法和系统,包括以下步骤:布置多个Aruco码并拍摄多相机图像;识别每张图像中Aruco码的ID并提取每个Aruco码的二维角点坐标;根据Aruco码的二维角点坐标求得Aruco码的相对位姿;构建Aruco码位姿关系图,计算Aruco码的本地坐标系到世界坐标系的变换矩阵得到初始化的Aruco码绝对位姿;构建相机位姿关系图,计算世界坐标系到相机的相机坐标系的变换矩阵得到初始化的相机绝对位姿;通过最小化重投影误差对所有绝对位姿进行全局优化得到最优相机外参。本发明方法能够实现低人工成本、低时间成本和精准的相机外参标定,适用于多相系统外参标定场景。
-
公开(公告)号:CN114998999B
公开(公告)日:2022-12-06
申请号:CN202210856428.0
申请日:2022-07-21
Abstract: 本发明公开一种基于多帧输入与轨迹平滑的多目标跟踪方法和装置,方法包括:步骤S1:获取行人视频数据集并进行行人坐标以及行人轨迹的标注,并生成片段型轨迹数据;步骤S2:构造并训练基于多帧输入与轨迹平滑的行人多目标跟踪网络模型;步骤S3:基于训练得到的行人多目标跟踪网络模型进行推理,获取当前帧行人目标检测与特征提取结果以及其前几帧的行人目标检测与特征提取结果,即获取得到多帧图像目标的坐标及外观特征;步骤S4:利用多帧图像目标的坐标及外观特征进行最短特征距离匹配,并利用轨迹曲率平滑函数进行轨迹平滑,最终得到当前帧的轨迹。本发明具有耗时低,且对同类目标的遮挡问题鲁棒性较好的优点。
-
公开(公告)号:CN114757832B
公开(公告)日:2022-09-30
申请号:CN202210663897.0
申请日:2022-06-14
Applicant: 之江实验室
Abstract: 本发明公开一种基于交叉卷积注意力对抗学习的人脸超分辨方法和装置,该方法将原始低分辨率图像输入人脸超分辨生成网络,经过卷积层、若干个全局残差通道注意力单元、粗上采样模块、两批局部残差通道注意力单元、精上采样模块,得到目标分辨率图像,再通过索贝尔算子获得边缘信息,通过低倍率降采样处理并反馈到主网络中进一步提高超分辨效果,利用小波变换将目标分辨率图像、真值图像和其他通过数据增强方式得到的图像进行分解,每个图像分解成一个低频信息、两个中频信息和一个高频信息,然后去掉低频信息,融合中频和高频信息,将其送到对抗网络进行判别,最后引入数据增强方法,以产生多个正负样本进行对抗网络与人脸超分辨网络的迭代优化。
-
-
-
-
-
-
-
-
-