基于预训练大语言模型的多变量源荷数据预测方法及系统

    公开(公告)号:CN119377397A

    公开(公告)日:2025-01-28

    申请号:CN202411943114.X

    申请日:2024-12-27

    Applicant: 湖南大学

    Abstract: 本发明公开了基于预训练大语言模型的多变量源荷数据预测方法及系统,将历史源荷时序序列进行文本化编码,混合使用低秩矩阵适配法与适配器法形成基于多专家的混合微调模块的预训练大语言模型,进而得到初步预测时序序列,最后进行滤波校准,其中,基于待预测变量与其余变量之间的互相关选出相关性更高的变量为超前变量;针对初步预测时序序列中超前变量与待预测变量数据进行滤波,进而进行整合得到对于初步预测时序序列的校准偏差,用于校准。本发明在大语言模型的基础上进行微调,能够在小样本、多变量条件下,完成不同类型的源荷时序序列预测任务,利用了变量间的超前滞后关系,对待预测变量进行提示和引导操作,提高源荷预测准确性和可靠性。

    一种基于注意力融合的视频场景理解方法及系统

    公开(公告)号:CN119206577A

    公开(公告)日:2024-12-27

    申请号:CN202411276866.5

    申请日:2024-09-12

    Applicant: 湖南大学

    Abstract: 本发明公开了一种基于注意力融合的视频场景理解方法及系统,该方法将多维度注意力融合模块加入骨干网络构建出行人视频场景下的识别网络,如行人动作识别网络,其中,多维度注意力融合模块是将通道,时间,空间三个维度独立计算各自注意力再进行融合;进而获取视频数据集中每帧图像的行人数据,再利用视频数据集中每帧图像的行人数据训练行人视频场景下的识别网络;最后,利用训练好的行人视频场景下的识别网络,对待检测视频进行视频理解,如输出行人动作类型。本发明技术方案块既单独使用了注意力信息使得各类注意力信息最有效利用,又使注意力信息在时空两个维度进行了整合,得到更全面的信息,增强时序信息利用,提升视频场景理解能力。

    基于预训练大语言模型的多变量源荷数据预测方法及系统

    公开(公告)号:CN119377397B

    公开(公告)日:2025-03-28

    申请号:CN202411943114.X

    申请日:2024-12-27

    Applicant: 湖南大学

    Abstract: 本发明公开了基于预训练大语言模型的多变量源荷数据预测方法及系统,将历史源荷时序序列进行文本化编码,混合使用低秩矩阵适配法与适配器法形成基于多专家的混合微调模块的预训练大语言模型,进而得到初步预测时序序列,最后进行滤波校准,其中,基于待预测变量与其余变量之间的互相关选出相关性更高的变量为超前变量;针对初步预测时序序列中超前变量与待预测变量数据进行滤波,进而进行整合得到对于初步预测时序序列的校准偏差,用于校准。本发明在大语言模型的基础上进行微调,能够在小样本、多变量条件下,完成不同类型的源荷时序序列预测任务,利用了变量间的超前滞后关系,对待预测变量进行提示和引导操作,提高源荷预测准确性和可靠性。

    一种面向交通场景的异常行为检测方法

    公开(公告)号:CN118470664B

    公开(公告)日:2024-09-27

    申请号:CN202410937279.X

    申请日:2024-07-12

    Applicant: 湖南大学

    Abstract: 本发明公开了一种面向交通场景的异常行为检测方法,包括采集交通场景视频数据,建立视频数据集和文本数据集;对视频数据集中的视频数据进行预处理;构建视频数据编码网络和文本数据编码网络,将预处理后的数据、文本数据集分别输入到视频数据编码网络和文本数据编码网络中进行训练分别得到视频数据的注意力编码信息和文本数据的注意力编码信息;计算视频数据的注意力编码信息和文本数据的注意力编码信息的余弦相似度,构建相似度矩阵,结合预设的损失函数得到训练好的视频数据编码网络;获取实时交通场景视频数据输入至训练好的视频数据编码网络得到实时视频数据的注意力编码信息,输入至检测头得到异常行为检测结果;有效提高行为检测准确性。

    一种基于特征聚类的无监督领域自适应语义分割方法

    公开(公告)号:CN116468890A

    公开(公告)日:2023-07-21

    申请号:CN202310390433.1

    申请日:2023-04-11

    Applicant: 湖南大学

    Abstract: 本发明提供了一种基于特征聚类的无监督领域自适应语义分割方法,包括如下步骤:步骤S1、建立有标签的源域场景数据集和无标签的目标域场景数据集;步骤S2、建立基于特征聚类的语义分割模型训练框架;步骤S3、将源域场景数据集的图像和目标域场景数据集的图像分别输入;步骤S4、获得类条件特征映射图,获得源域场景的类条件特征精炼图,获得目标域场景的类条件特征精炼图;步骤S5、计算得到每一个类别的特征聚类质心,再计算损失;步骤S6、参数优化,迭代运行以得到参数优化后的分割网络和评论家网络。本发明聚类质心的偏移小,使在虚拟源域数据上训练的模型性能在实际目标域场景数据上性能好。

    伪标签生成及无源域场景自适应的遮挡感知无缝分割方法及系统

    公开(公告)号:CN119380029A

    公开(公告)日:2025-01-28

    申请号:CN202411943039.7

    申请日:2024-12-27

    Applicant: 湖南大学

    Abstract: 本发明公开了一种伪标签生成及无源域场景自适应的遮挡感知无缝分割方法及系统,该方法通过为常规使用的实例级伪标签通过阈值筛选和数据量的对比,进一步提升伪标签的标记精度;同时利用生成的伪标签,并设计一种针对遮挡感知无缝分割任务中实例级预测分支的不确定区域引导的加权损失,提升分割模型的准确度;再结合对低质量伪标签的筛选,提出一种非模态引导的实例混合策略,从而进一步的增加可供训练的样本数量;从而提高由于个别类别样本数量少导致的最终训练的模型分割效果差的问题,最终提高无源域场景自适应效果。

    一种面向交通场景的异常行为检测方法

    公开(公告)号:CN118470664A

    公开(公告)日:2024-08-09

    申请号:CN202410937279.X

    申请日:2024-07-12

    Applicant: 湖南大学

    Abstract: 本发明公开了一种面向交通场景的异常行为检测方法,包括采集交通场景视频数据,建立视频数据集和文本数据集;对视频数据集中的视频数据进行预处理;构建视频数据编码网络和文本数据编码网络,将预处理后的数据、文本数据集分别输入到视频数据编码网络和文本数据编码网络中进行训练分别得到视频数据的注意力编码信息和文本数据的注意力编码信息;计算视频数据的注意力编码信息和文本数据的注意力编码信息的余弦相似度,构建相似度矩阵,结合预设的损失函数得到训练好的视频数据编码网络;获取实时交通场景视频数据输入至训练好的视频数据编码网络得到实时视频数据的注意力编码信息,输入至检测头得到异常行为检测结果;有效提高行为检测准确性。

    一种基于有监督学习的输电线路树木分割方法及系统

    公开(公告)号:CN119339081A

    公开(公告)日:2025-01-21

    申请号:CN202411426418.9

    申请日:2024-10-14

    Applicant: 湖南大学

    Abstract: 本发明公开了一种基于有监督学习的输电线路树木分割方法及系统,包括:获取沿输电线路通道采集的点云数据;利用点云数据构建邻接图;将邻接图输入构建的图神经网络模型得到特征空间参量再映射到单木实例标签空间得到单木实例标签概率分布,再以最大概率的单木实例标签的预测值作为对应点的单木分割预测结果;其中,通过采集点云数据样本以及点的单木实例标签的实际值,进而依据单木实例标签的预测值与单木实例标签的实际值进行有监督学习训练。本发明通过构建邻接图引入了点云数据的几何关系,使用图卷积网络能够捕捉局、全局特征,利用单木实例标签信息进行有监督训练,使模型能够学习并区分不同树木的点云特征,提高单木分割的精度和效率。

    基于掩码恢复强化的低分辨率弱小目标检测方法及系统

    公开(公告)号:CN118864826A

    公开(公告)日:2024-10-29

    申请号:CN202411345650.X

    申请日:2024-09-26

    Applicant: 湖南大学

    Abstract: 本发明公开了一种基于掩码恢复强化的低分辨率弱小目标检测方法及系统,该系统包括:步骤1:对未标注的图像样本集进行随机掩码处理;步骤2:采用自监督目标函数对步骤1得到的随机掩码后的图像数据集进行批次编码及解码重构的迭代训练,得到预训练模型;步骤3:少量标注样本;步骤4:构建基于Transformer的双阶段目标检测网络模型;步骤5:构建并训练基于Transformer的双阶段目标检测网络模型;步骤6:利用训练好的基于Transformer的双阶段目标检测网络模型,对待进行目标检测的图像经过大面积随机掩码后的图像,进行目标检测。该方法使得即使在少量标注情况下,也可实现对图像高精度检测。

    一种基于头部中心点辅助的特征对比行人检测方法及系统

    公开(公告)号:CN118279931A

    公开(公告)日:2024-07-02

    申请号:CN202410443959.6

    申请日:2024-04-14

    Applicant: 湖南大学

    Abstract: 本发明公开了一种基于头部中心点辅助的特征对比行人检测方法及系统,该方法包括:构建CSP网络新架构,在原CSP网络架构中增设头部分支、特征比对分支以及检测置信度增强器、头部感知NMS模块,再构建训练样本集,其中,以头部中心点作为头部分支的正样本,头部框中非头部中心点作为头部分支的负样本;利用训练样本集输入CSP网络进行训练得到行人检测网络模型;在训练阶段利用头部分支损失以及特征比对损失监督网络学习;在训练以及测试阶段利用检测置信度增强器和头部感知的NMS方法增强检测结果。本发明通过引入头部中心点、特征比对、检测置信度增强器和头部感知的NMS方法,提升了CSP检测精度,降低误检、漏检的发生概率。

Patent Agency Ranking