-
公开(公告)号:CN117252930B
公开(公告)日:2024-05-28
申请号:CN202311222096.1
申请日:2023-09-21
Applicant: 之江实验室
IPC: G06T7/80
Abstract: 本发明公开了一种大型展厅多相机监控系统内外参标定方法和系统,包括以下步骤:获取多相机视频数据作为标定数据;对标定数据进行预处理;进行单目相机标定得到相机内参初值;使用链式法进行相机外参初步估计得到每个相机相对于世界坐标系的位姿作为相机外参初值;进行标定板位姿初步估计得到每个特定姿态下的标定板位姿初值;构造总重投影误差作为目标函数并引入基于畸变参数的正则项;使用相机内参初值、相机外参初值和标定位板位姿初值,最小化带有正则项的目标函数以求解全局优化问题,得到最优相机内外参数。本发明能够减小人工成本和风险,提高相机内外参标定的准确性,适用于高空悬挂或处于开阔空间中的多相机系统内外参标定应用场景。
-
公开(公告)号:CN114022727B
公开(公告)日:2024-04-26
申请号:CN202111221950.3
申请日:2021-10-20
Applicant: 之江实验室
IPC: G06V10/774 , G06V10/82 , G06N3/0464 , G06N3/09
Abstract: 本发明公开了本发明公开一种基于图像知识回顾的深度卷积神经网络自蒸馏方法,该方法首先针对目标网络设置辅助网络,在目标网络的下采样层引出分支,采用知识回顾的思路依次融合和连接各个分支,在训练过程中,通过监督学习以及采用目标网络的下采样层向引出分支层进行学习的方式,达到自蒸馏的目的。本发明在深度卷积神经网络自蒸馏领域引入知识回顾的思路,提高了深度卷积神经网络的训练精度;采用辅助网络的形式进行自蒸馏,相对使用数据增强来拉进类内距离的自蒸馏方法,在实际应用中更加简洁方便。
-
公开(公告)号:CN117593652A
公开(公告)日:2024-02-23
申请号:CN202410075345.7
申请日:2024-01-18
Applicant: 之江实验室
IPC: G06V20/10 , G06V10/26 , G06V10/82 , G06V10/774 , G06N3/0464
Abstract: 本发明公开了一种智能识别大豆叶片叶形的方法和系统,方法包括以下步骤:构建包含完整大豆叶片图像的训练集对基于深度卷积神经网络的大豆叶片检测分割模型进行训练,将待检测的大豆叶片图像输入训练好的大豆叶片检测分割模型并输出每张图像中分割出的大豆叶片图像;基于分割出的大豆叶片图像,采用最小外接矩形法计算叶长和叶宽,进而计算得到大豆叶片长宽比;将分割出的大豆叶片图像切分为若干区域,基于大豆叶片长宽比及各区域的叶片像素量判定大豆叶片叶形。本发明能够实现对大豆叶片叶形的自动高效识别,识别精度和速度高,适用于智能识别大豆品种等实战部署场景。
-
公开(公告)号:CN117314755A
公开(公告)日:2023-12-29
申请号:CN202311605122.9
申请日:2023-11-29
Applicant: 之江实验室 , 中国科学院东北地理与农业生态研究所
IPC: G06T3/40 , G06T5/00 , G06T7/00 , G06V20/70 , G06V10/774 , G06V10/80 , G06V10/82 , G06N3/0455 , G06N3/0464 , G06N3/0475 , G06N3/0895
Abstract: 本发明公开了一种基于跨模态图像生成的多视角植株生成方法和装置,属于农业方面的图像处理领域,包括:采集植株图像并标注文本信息;基于图像和文本对文本图像映射模型进行训练微调并冻结,得到图像和文本的内嵌向量;基于图像和文本的内嵌向量,构建基于扩散模型的包含文本图像先验模块和图像编码器模块的图像生成模型并训练;实际推理阶段根据基因型‑表型预测模型得到的目标植株表型数据,引导图像生成模型生成多视角小图,并输入图像超分辨模块得到高分辨率的目标植株图像。本发明采用扩散模型构建图像生成模型和图像超分辨模块,能够实现生成效率高、可扩展性强且生成图像质量高的植株表型数据可视化图像预测,为可视育种提供支撑。
-
公开(公告)号:CN117095240A
公开(公告)日:2023-11-21
申请号:CN202311332316.6
申请日:2023-10-16
Applicant: 之江实验室 , 中国科学院东北地理与农业生态研究所
IPC: G06V10/764 , G06V10/44 , G06V10/42 , G06V10/26 , G06V10/82 , G06N3/0464 , G06N3/094
Abstract: 一种基于细粒度特征的叶片分类方法和系统,其方法包含:叶片图像随机混乱模块对同一类的两张叶片图像分区块之后,再把所有区块进行随机重组,得到两张相同数量和尺寸的重组叶片图像,以混乱叶片的全局特征;使用深度学习网络提取叶片的原图特征和重组图特征:训练时,在特征层后面加全连接层,并计算分类损失和对抗损失向前传播;测试时,使用模型便可以提取原图的局部细粒度特征和全局特征,从而实现对叶片的分类。本发明对叶片图像进行重组,模型在重组图像上得不到全局特征时,将专注于学习叶片的局部细粒度特征,而原始图像的输入又可以提供模型全局特征的学习,从而大大提高叶片分类的精度。
-
公开(公告)号:CN117079060A
公开(公告)日:2023-11-17
申请号:CN202311325300.2
申请日:2023-10-13
Applicant: 之江实验室 , 中国科学院东北地理与农业生态研究所
IPC: G06V10/764 , G06V10/774 , G06V10/25 , G06V20/40 , G06V10/82 , G06N3/0442 , G06N3/0464 , G06N3/045
Abstract: 一种基于光合信号的叶片智能分类方法和系统,其方法包含:叶片光合信号提取、叶片光合信号分类。叶片光合信号提取通过叶片检测模型提取出视频中的叶片,使用分割算法对提取出的叶片进行分割,从而分割出叶片区块,然后以叶片区块内的像素均值记为当前帧的光合信号值,视频的多帧连续光合信号值即组成此叶片的光合信号。叶片光合信号分类使用神经网络对采集到的叶片光合信号进行特征提取训练,来实现叶片的分类。本发明提出一种基于植物叶片的光合信号,确定其提取方法,并针对植物叶片的光合信号变化,采用深度学习训练的方式,提取出植物叶片与其光合信号变化的相关性,从而大大提高叶片分类的精度。
-
公开(公告)号:CN114998999B
公开(公告)日:2022-12-06
申请号:CN202210856428.0
申请日:2022-07-21
Abstract: 本发明公开一种基于多帧输入与轨迹平滑的多目标跟踪方法和装置,方法包括:步骤S1:获取行人视频数据集并进行行人坐标以及行人轨迹的标注,并生成片段型轨迹数据;步骤S2:构造并训练基于多帧输入与轨迹平滑的行人多目标跟踪网络模型;步骤S3:基于训练得到的行人多目标跟踪网络模型进行推理,获取当前帧行人目标检测与特征提取结果以及其前几帧的行人目标检测与特征提取结果,即获取得到多帧图像目标的坐标及外观特征;步骤S4:利用多帧图像目标的坐标及外观特征进行最短特征距离匹配,并利用轨迹曲率平滑函数进行轨迹平滑,最终得到当前帧的轨迹。本发明具有耗时低,且对同类目标的遮挡问题鲁棒性较好的优点。
-
公开(公告)号:CN114757822B
公开(公告)日:2022-11-04
申请号:CN202210663896.6
申请日:2022-06-14
Abstract: 本发明公开一种基于双目的人体三维关键点检测方法及系统,该方法包括:步骤一:通过采用YOLOv5目标检测算法的目标检测模块分别获得左、右视场图像中的人体矩形框;步骤二:扣取人体矩形框对应的人体图像,通过人体二维关键点识别算法提取左、右视场图像中人体各关键点的二维热力图;步骤三:将左、右人体二维关键点热力图反向投影到三维空间,得到三维反投影热力图;步骤四,将三维反投影热力图输入三维卷积编解码网络,通过编解码操作得到三维关键点热力图;步骤五,三维关键点热力图中每一通道通过自变量最大值软操作得到该通道表示的三维关键点所在坐标,最终得到全部人体三维关键点坐标。本发明具有较高的可行性和实用性。
-
公开(公告)号:CN114638272B
公开(公告)日:2022-11-04
申请号:CN202210541225.2
申请日:2022-05-19
IPC: G06K9/00 , G06K9/62 , A61B5/1455 , A61B5/117 , A61B5/00
Abstract: 本发明涉及非接触式生理信号检测领域,尤其涉及一种基于指尖脉搏波信号的身份识别方法和装置,该方法包括:步骤一,利用血氧仪采集人体指尖的脉搏波信号;步骤二,将采集到的脉搏波信号进行滤波、峰值检测、信号截取对齐以及计算导数并归一标准化的处理,同时保存对应的个人身份标识号;步骤三,重复步骤一至步骤二,将步骤二中得到的信号数据保存为数据集;步骤四,将数据集输入特征提取网络进行特征提取,后输入分类网络训练,训练完成后保存训练好的网络参数,得到训练好的身份识别模型;步骤五,利用训练好的身份识别模型,对输入的脉搏波信号进行识别,预测出对应身份。本发明相比现有的其他方法,具有更高的识别准确率的优点。
-
公开(公告)号:CN114757832B
公开(公告)日:2022-09-30
申请号:CN202210663897.0
申请日:2022-06-14
Applicant: 之江实验室
Abstract: 本发明公开一种基于交叉卷积注意力对抗学习的人脸超分辨方法和装置,该方法将原始低分辨率图像输入人脸超分辨生成网络,经过卷积层、若干个全局残差通道注意力单元、粗上采样模块、两批局部残差通道注意力单元、精上采样模块,得到目标分辨率图像,再通过索贝尔算子获得边缘信息,通过低倍率降采样处理并反馈到主网络中进一步提高超分辨效果,利用小波变换将目标分辨率图像、真值图像和其他通过数据增强方式得到的图像进行分解,每个图像分解成一个低频信息、两个中频信息和一个高频信息,然后去掉低频信息,融合中频和高频信息,将其送到对抗网络进行判别,最后引入数据增强方法,以产生多个正负样本进行对抗网络与人脸超分辨网络的迭代优化。
-
-
-
-
-
-
-
-
-