-
公开(公告)号:CN114494812B
公开(公告)日:2024-07-16
申请号:CN202210141099.1
申请日:2022-02-16
Applicant: 湖南大学
IPC: G06V10/80 , G06V10/774 , G06V10/82
Abstract: 本发明公开了一种基于改进CenterNet的图像小目标检测方法,包括获取原始图像,对原始图像进行mosaic数据增强,增加原始图像中小目标的样本量;使用注意力机制增强后的骨干网络提取图像的特征;对骨干网络提取的图像的特征进行多感受野融合,使用可变形卷积上采样;对进行多感受野融合,使用可变形卷积上采样处理后的特征图进行预测,得到热力图,目标的宽、高和中心点坐标;从热力图提取出检测框,得到检测结果。本发明通过对训练数据的增强,增加小目标的样本量;通道注意力增强和空间注意力增强能够有效地区分小目标和背景信息;以及多重感受野融合和高分辨率特征图的结合,能够有效提升小目标检测精度。
-
公开(公告)号:CN114492412A
公开(公告)日:2022-05-13
申请号:CN202210124098.6
申请日:2022-02-10
Applicant: 湖南大学
IPC: G06F40/279 , G06N20/20 , G06F40/126 , G06F40/166 , G06F40/216
Abstract: 本发明公开了一种面向中文短文本的实体关系抽取方法,包括获取中文数据,并进行预处理,对不足预设句子长度的文本进行扩充,并进行标记,得到处理后文本;对处理后文本进行特征提取;构建头实体标注模型,并进行头实体预测;构建特定关系的尾实体标注模型,进行尾实体预测,获取每个参与方的最后的三元组;利用横向联邦学习协同训练,获取最终损失,获得最终实体关系抽取模型,并对当前中文短文本进行实体关系抽取。本发明可以有效保证数据的隐秘,提高数据安全性,同时区别与传统的联邦学习,在融合了知识蒸馏的思想之后,避免了关系抽取模型参数太大,缩减了很大一部分的网络开销和时间开销,能够安全高效地对中文短文本的实体关系进行抽取。
-
公开(公告)号:CN114492412B
公开(公告)日:2024-10-01
申请号:CN202210124098.6
申请日:2022-02-10
Applicant: 湖南大学
IPC: G06F40/279 , G06N20/20 , G06F40/126 , G06F40/166 , G06F40/216
Abstract: 本发明公开了一种面向中文短文本的实体关系抽取方法,包括获取中文数据,并进行预处理,对不足预设句子长度的文本进行扩充,并进行标记,得到处理后文本;对处理后文本进行特征提取;构建头实体标注模型,并进行头实体预测;构建特定关系的尾实体标注模型,进行尾实体预测,获取每个参与方的最后的三元组;利用横向联邦学习协同训练,获取最终损失,获得最终实体关系抽取模型,并对当前中文短文本进行实体关系抽取。本发明可以有效保证数据的隐秘,提高数据安全性,同时区别与传统的联邦学习,在融合了知识蒸馏的思想之后,避免了关系抽取模型参数太大,缩减了很大一部分的网络开销和时间开销,能够安全高效地对中文短文本的实体关系进行抽取。
-
公开(公告)号:CN114494812A
公开(公告)日:2022-05-13
申请号:CN202210141099.1
申请日:2022-02-16
Applicant: 湖南大学
IPC: G06V10/80 , G06V10/774 , G06K9/62
Abstract: 本发明公开了一种基于改进CenterNet的图像小目标检测方法,包括获取原始图像,对原始图像进行mosaic数据增强,增加原始图像中小目标的样本量;使用注意力机制增强后的骨干网络提取图像的特征;对骨干网络提取的图像的特征进行多感受野融合,使用可变形卷积上采样;对进行多感受野融合,使用可变形卷积上采样处理后的特征图进行预测,得到热力图,目标的宽、高和中心点坐标;从热力图提取出检测框,得到检测结果。本发明通过对训练数据的增强,增加小目标的样本量;通道注意力增强和空间注意力增强能够有效地区分小目标和背景信息;以及多重感受野融合和高分辨率特征图的结合,能够有效提升小目标检测精度。
-
-
-