一种基于多尺度特征融合和注意力机制的内窥镜图像息肉检测方法

    公开(公告)号:CN117635487A

    公开(公告)日:2024-03-01

    申请号:CN202311466702.4

    申请日:2023-11-06

    Abstract: 本发明提出一种多尺度特征融合和注意力机制的内窥镜图像息肉检测方法。研究并设计了一种基于YOLOX改进的内窥镜图像息肉检测网络模型。将主干网络中的CSP模块替换为特征提取能力更强的C2f模块,在C2f模块后添加残差空间注意力机制细化纹理特征,在主干网络的输出特征与颈部PAFPN结构之间添加Aug_CA(Augmentation_Coordinate_Attention)注意力机制对主干网络提取的特征进行处理,使得其更加关注息肉的纹理信息和位置信息;在主干网络的输出与颈部PAFPN结构的输入之间添加跳跃连接以增强特征重用,针对内窥镜图像特点在PAFPN结构的不同层级之间添加跨层连接实现更加充分的多尺度特征融合,使得经过PAFPN结构的特征图富含息肉的语义信息和位置信息,从而提高YOLOX网络模型的整体准确率和召回率。

    一种基于多层四轴注意力机制和伪文档的文档级关系抽取方法

    公开(公告)号:CN118428364A

    公开(公告)日:2024-08-02

    申请号:CN202410252212.2

    申请日:2024-03-05

    Abstract: 本发明涉及一种基于多层四轴注意力机制和伪文档的文档级关系抽取方法。该方法包括:首先提出了多层四轴注意力机制编码实体对上下文,具体包括:将实体对上下文设计成实体对表,接着将实体对(es,eo)与实体对(es,eo)所在的横轴上的实体对(ei,eo)以及所在纵轴上实体对(es,ei)进行注意力机制求和,再将实体对(es,eo)与实体对(eo,es)所在横轴上实体对(ei,es)以及所在纵轴上实体对(eo,ei)进行注意力机制求和,交互实体对之间的信息,帮助关系推理。其次使用证据抽取的证据句子与通过自定义规则所抽取的句子组合成伪文档,并使用伪文档进行推理,将推理结果与原文档推理结果进行融合,进一步提升关系抽取性能。本发明在DocRED,CDR和GDA三个广泛使用的基准数据集上评估模型。实验结果表明该模型的性能优于现有模型,关系抽取F1指数有较大的提升。

Patent Agency Ranking