一种基于类对齐的域自适应目标检测方法

    公开(公告)号:CN118887384A

    公开(公告)日:2024-11-01

    申请号:CN202410911676.X

    申请日:2024-07-09

    Abstract: 本发明公开了一种基于于类对齐的域自适应目标检测方法。该方法旨在解决域自适应目标检测中存在各种类别特征的类内变化显著、类间差异不足的问题。主要步骤包括:设计类间分离模块,采用困难样本挖掘的采样方法,在两个领域间通过距离交互增强类别间的差异;类内聚合模块,通过获取两个领域内同类特征与共享类别中心之间的距离,利用最小化类别内差异方法。优化损失函数,增强模型对类间差异性和类内紧凑性的学习。实验表明,提出的方法在不同背景和图像质量下均表现出显著的检测效果提升。与现有技术相比,本发明提高了模型获取两域之间的类别语义信息的能力,验证了其在域自适应目标检测中的优势。

    一种基于端到端LBSRL的行为抽取算法

    公开(公告)号:CN118862883A

    公开(公告)日:2024-10-29

    申请号:CN202410910057.9

    申请日:2024-09-10

    Abstract: 本发明公开了一种基于LBSRL的行为抽取模型,该模型针对法律领域的特殊需求和挑战进行了优化设计。该方法在预训练语言模型模块对输入文本数据完成字符到词嵌入的映射,并通过weight Embeddings对词嵌入完成语义表示增强;在SRL模块,基于LB注意力对输入文本可能存在的谓词片段和论元片段完成计算;SPAN模块,基于LB注意力机制计算不同片段在某个上标签的得分;最后在联合解码模块对得分结果在一定约束下实现片段和标签的联合解码,得到端到端的行为抽取结果。该方法通过引入LB注意力机制,设计出的SPAN模块和SRL模块模型能够在面对法律文本时精准聚焦于关键行为描述,有效地捕获蕴含在复杂文本中的行为要素。除此之外,其端到端的特性,摆脱了传统多阶段抽取方法的限制,可以从原始法律文本直接得到所需的行为信息,极大地简化了抽取过程并提高了模型的整体性能。

    一种基于U-Net改进的无人机图像分割方法

    公开(公告)号:CN118823347A

    公开(公告)日:2024-10-22

    申请号:CN202410912558.0

    申请日:2024-07-09

    Abstract: 本发明提出了一种专为无人机航拍图像分割任务设计的先进U‑Net网络改进模型。该模型通过融合边缘感知能力与先进的注意力机制,显著增强了对图像边缘区域的分割精度及整体图像的分割性能。通过引入创新的双重注意力机制,模型能够更加聚焦于图像的关键部分,有效减少由背景元素引起的干扰,同时显著提升了分割的准确度。此外,模型中加入的门控注意力技术在实现特征的选择与融合过程中优化了跳跃连接,加之边缘感知模块的引入,极大地提高了模型对图像边缘细节的捕捉能力,确保了分割结果的清晰度与精确性。为了进一步提高分割质量,本模型在解码器部分采用了改进的特征融合技术,这一策略确保了深层与浅层特征的有效结合,捕获了丰富的上下文信息,从而在性能上得到了显著提升。

    一种基于混合注意力机制的端到端图像匹配方法

    公开(公告)号:CN118351334A

    公开(公告)日:2024-07-16

    申请号:CN202410628723.X

    申请日:2024-05-21

    Abstract: 本发明提出一种基于混合注意力机制的端到端图像匹配的方法,该方法包括:在特征提取模块使用具有FPN的标准卷积神经网络(CNN)来提取图像粗粒度级别特征与细粒度级别特征;在特征更新模块采用深度卷积与逐点卷积以减少模型参数和计算;在transformer模块使用由基于向量的全局注意力机制与基于G2L局部注意力机制组成的混合注意力块以提高准确和局部化能力;在粗粒度匹配模块使用相互匹配方法以进行初步特征匹配;在细粒度匹配阶段设计精细匹配模块来同时预测置信度和偏移量。由于混合注意力机制的存在,本模型能够更好的进行精细的局部交互,提取高度准确和局部化对应关系的能力,从而提高图像特征匹配的速度与准确率。

    一种基于轻量化无卷积网络的目标检测方法

    公开(公告)号:CN118229957A

    公开(公告)日:2024-06-21

    申请号:CN202410387185.X

    申请日:2024-04-01

    Abstract: 本发明旨在解决现有方法在处理复杂、实时计算的应用场景时存在的问题。本发明对Transformer进行了轻量化改进,同时改进了损失函数以克服长尾数据集问题。具体技术方案包括:主干网络采用Transformer,并包含增强高频局部信息的注意力机制风格模块、全局‑局部的互补注意力机制以及二维注意力融合的前馈网络。本发明提出了基于深度卷积的高频局部分支LBConv,用于捕捉高频局部信息;将有价值的全局依赖关系聚集到一个小的特征空间,然后将聚合后的全局信息广播到局部特征中。同时引入可学习的全局token聚合局部token的信息并提出了一个二维注意力模块来显式地聚合空间维度和通道维度之间的全局依赖关系;引入基于角度的边界类别感知损失函数ACP Loss,将决策边界推向尾部类别。

    一种基于COLMAP和YOLOv5的敏感区域入侵监测方法

    公开(公告)号:CN118212359A

    公开(公告)日:2024-06-18

    申请号:CN202410351697.0

    申请日:2024-03-26

    Abstract: 本发明公开了一种基于COLMAP和YOLOv5的敏感区域入侵监测方法,该发明在敏感区域入侵监测方向上具有一定的通用性。该专利以消防通道的入侵监测为说明案例。首先利用COLMAP将多视角图像融合建立高精度三维点云模型,明确标定出待保护的敏感区域界限。然后将YOLOv5集成至监控摄像系统中,实现实时视频流中的目标识别与定位。接着针对检测到的目标物体,使用射线法判断目标是否侵入敏感区域,一旦发生入侵事件,则立即触发警报系统,并显示在三维点云模型中。本发明能够实现对敏感区域的全方位、自动化的安全保障,具有显著的应用价值和技术进步意义。

    一种基于POS融合特征与实体边界诊断的中文谓词识别方法

    公开(公告)号:CN117252199A

    公开(公告)日:2023-12-19

    申请号:CN202311022329.3

    申请日:2023-08-14

    Abstract: 本发明针对传统方法对于中文谓词边界易错判,词类活用性谓词识别精度低导致下游任务存在错误积累的问题,提出一种基于POS融合特征与实体边界诊断的中文谓词识别方法。该方法首先采用RoBERTa和BiLSTM做词嵌入并融合文本上下文信息;接着按照基于SPAN的方法引入新型POS注入方式,在POS表示后接一个线性注意力层将重点聚焦在各个目标SPAN上以进一步捕捉分布规律,然后通过门控模块对SPAN编码序列与POS注意力编码序列进行融合得到最终的融合向量表示以最大程度保留语义信息;边界诊断模块将SPAN首尾词的BiLSTM编码输出传入两个多层感知层(MLPs)以获得头和尾的独立表示,为了更好地判断边界信息,后接双仿射译码器用于获得每个SPAN被判为名词性或者动词性谓词概率;最后采用Softmax线性解码器以预测各个SPAN的实体类型。

    一种基于残差预测模型的边坡位移预测方法及相关装置

    公开(公告)号:CN116561563B

    公开(公告)日:2023-09-29

    申请号:CN202310845882.0

    申请日:2023-07-11

    Abstract: 本申请公开了一种基于残差预测模型的边坡位移预测方法及相关装置,用于提高基于支持向量机SVM的边坡位移预测模型的预测精度。本申请方法包括:获取第一边坡监测数据;使用第一边坡监测数据对基于SVM的第一模型进行边坡位移预测训练,得到边坡位移预测模型;使用第一残差数据对基于SVM的第二模型进行残差预测训练,得到残差预测模型;根据残差预测模型输出的残差预测结果对第一边坡位移预测结果进行修正,得到第二边坡位移预测结果;使用残差预测结果、第一残差数据和第二残差数据对基于随机森林的判别器进行残差判别训练,得到残差修正判别器;根据残差修正判别器输出的目标残差数据对第一边坡位移预测结果进行修正,得到目标边坡位移预测结果。

Patent Agency Ranking