-
公开(公告)号:CN119416456A
公开(公告)日:2025-02-11
申请号:CN202411433945.2
申请日:2024-10-15
Applicant: 内蒙古大唐国际呼和浩特铝电有限责任公司 , 湖南大学
IPC: G06F30/20 , G06F18/214
Abstract: 本发明公开了一种基于物理信息网络PINN的铝电解槽内部磁场的预测方法,包括以下步骤:将待预测磁场相关数据输入训练好的PINN模型,输出预测数据;其中,构建训练好的PINN模型的具体内容包括:S1.构建目标铝电解槽内部磁场的物理模型;S2.构建PINN模型,根据目标铝电解槽内部磁场的物理模型构建损失函数,通过迭代训练和反向传播,通过损失函数计算反向传播过程中的物理损失,若满足预设条件则训练完成,得到用于预测目标内部磁场的PINN模型;S3.完成PINN模型的验证,得到训练好的PINN模型。
-
公开(公告)号:CN118941595A
公开(公告)日:2024-11-12
申请号:CN202411419806.4
申请日:2024-10-12
Applicant: 湖南大学
IPC: G06T7/246 , G06T7/33 , G06T7/277 , G06V10/774 , G06V10/764 , G06V10/46 , G06F17/16
Abstract: 一种面向海面场景的多目标跟踪方法,包括步骤S1,YOLOv8m检测模型训练;步骤S2,将图片送入YOLOv8m检测模型中输出目标检测框信息;步骤S3,判断当前图片是否是第一帧图片,若是则初始化多目标跟踪器,进入步骤S4,若否则采用相机运动补偿算法对图片进行配准操作,进入步骤S4;步骤S4,将图片和目标检测框信息送入多目标跟踪器内,目标检测框和轨迹预测框进行基于IoU、基于ReID特征、基于马氏距离的匹配,生成新的轨迹信息并更新扩展卡尔曼滤波器;步骤S5,判断当前图片是否是最后一帧图片,若是则结束,输出跟踪轨迹集合,若否则转至步骤S2。本发明提高了无人艇对海面场景下的碍航目标的稳定跟踪能力。
-
公开(公告)号:CN115277745B
公开(公告)日:2024-07-26
申请号:CN202210721784.1
申请日:2022-06-24
Applicant: 湖南大学
Abstract: 本发明公开了一种支持异步调度的服务总线编排系统,包括:可视化编排平台,用于提供客户端界面以供开发人员编排服务;服务调用层,用于调用编排中各个服务;消息回调层,用于接收回调消息;以及消息解析层,用于解析服务调用后的调用返回消息。本发明还提供了一种支持异步调度的服务总线编排方法。本发明的有益效果如下:同时支持同步请求和异步请求的支持,进一步拓展了服务总线编排能力;丰富了可以进行服务编排场景,有更多的场景可以使用服务编排;减少了工业机器人编程中的二次开发,进一步降低了开发人员的工作量,提升工作效率。
-
公开(公告)号:CN118334099A
公开(公告)日:2024-07-12
申请号:CN202410754143.5
申请日:2024-06-12
Applicant: 湖南大学
IPC: G06T7/50 , G06T7/10 , G06T7/70 , G06T7/80 , G06V10/762
Abstract: 本发明公开了一种开放海面场景海上目标深度估计方法及其系统,该方法包括:S1.求得单应矩阵#imgabs0#消除相机摆动,得到校正后相机图片;S2.对点云数据进行聚类得到近处海面物体;S3.用检测器检测图像中的感兴趣物体,并将聚类得到的物体和检测到的感兴趣物体进行匹配,然后根据匹配结果可以直接得到图像中部分物体的深度,并利用这些物体的深度获取相机高度获得远处海面物体的深度;该系统包括相机姿态校正模块、相机坐标系转换模块、相机高度估算模块和深度估算模块;本发明基于点云和单目图像数据,利用海面场景特有的环境先验,来对海面物体进行准确的深度估计。
-
公开(公告)号:CN118314331A
公开(公告)日:2024-07-09
申请号:CN202410729790.0
申请日:2024-06-06
Applicant: 湖南大学
Abstract: 本发明公开了一种面向海面场景的目标检测方法及其系统,该方法包括以下步骤:S1.获取模型输出检测框;S2.获取灰度匹配算法输出检测框;S3.输出最终检测框集合;根据模型输出检测框和灰度匹配算法输出检测框的交并比最大值与预设交并比阈值来对模型输出检测框和灰度匹配算法输出检测框进行融合,输出最终检测框集合;该系统包括模型输出检测框获取模块、灰度匹配算法输出检测框获取模块、最终检测框集合输出模块;本发明以YOLOv5为主、灰度匹配算法为辅进行检测海面目标,实现了传统图像处理技术和深度学习技术的融合,充分利用了两者的优点,实现了较低的漏检率。
-
公开(公告)号:CN118015049B
公开(公告)日:2024-06-21
申请号:CN202410422431.0
申请日:2024-04-09
Applicant: 湖南大学
IPC: G06T7/246 , G06N3/0442 , G06N3/0464 , G06N3/082 , G06N3/084 , G06V10/25 , G06V10/42 , G06V10/44 , G06V10/764 , G06V10/82 , G06V10/86
Abstract: 一种结合YOLO和GCN的海上目标追踪方法及其模型,该方法包括:对海上船只数据进行实地采集;实验数据预处理,将训练集输入到检测模块,对图像目标进行特征提取,得到多帧目标识别数据,并计算检测模块的损失;反向传播进行检测模块的YOLO参数更新;将检测模块得到的多帧目标识别数据输入到关联模块,以检测目标为节点构建图结构,提取高级目标特征,进行下一时刻目标位置的预测,结果计算总的损失;通过梯度反向传播进行关联模块参数的更新,得到训练好的海上目标追踪模型;将测试集输入训练好的海上目标追踪模型,输出检测追踪结果和概率。本发明考虑到不同目标之间的空间关系,目标追踪性能好。
-
公开(公告)号:CN117150345A
公开(公告)日:2023-12-01
申请号:CN202311125478.2
申请日:2023-09-02
Applicant: 湖南大学
IPC: G06F18/24 , G06F18/23213 , G06V20/40 , G06F18/25 , G06F18/213 , G06N3/08 , G06F18/214 , G06N3/0464
Abstract: 基于多模态数据融合的回转窑异常工况识别方法及其系统,该方法包括采集回转窑工况样本集;特征提取模块提取火焰视频图像序列特征;提取多热工变量数据特征;提取火焰视频图像序列与多热工变量数据融合特征;构造复合损失函数对各特征提取模块进行训练;级联火焰视频动态特征Ffast、多热工变量动态特征Fslow及多模态融合特征Ffusion,形成统一烧结工况特征F;构造保角变换函数,对mcODM分类器的核函数进行修正,得到KM‑mcODM分类器;将统一烧结工况特征F及对应类标输入KM‑mcODM分类器进行分类识别。还包括基于多模态数据融合的回转窑异常工况识别系统。本发明实现多模态信息互补融合,结合长尾样本分类器模型改进,能够有效地提高尾类样本异常工况的识别精度。
-
公开(公告)号:CN111459489B
公开(公告)日:2023-09-26
申请号:CN202010124121.2
申请日:2020-02-27
Applicant: 湖南大学
Abstract: 本发明公开了一种动态库自动服务化封装方法及系统,属于计算机技术领域,用于解决目前动态库人工服务化封装开发成本及维护成本高、标准混乱的技术问题,采用的技术方案为:预先进行动态库描述、函数类型定义以及参数描述,形成函数描述文件;读取函数描述文件并进行解析,获得待加载动态库的名称和路径、以及动态库内各函数的类型,建立函数名称/类型映射表,并对动态库进行预加载;根据函数名称从函数名称/类型映射表中查找到对应的函数类型指针,获得该函数在预加载的动态库中对应的地址,完成函数的调用。本发明的方法及系统均具有灵活性高、操作简便、开发成本及维护成本低等优点。
-
公开(公告)号:CN115439690A
公开(公告)日:2022-12-06
申请号:CN202211078519.2
申请日:2022-09-05
Applicant: 湖南大学 , 中国烟草总公司郑州烟草研究院
IPC: G06V10/764 , G06V10/82 , G06V10/44 , G06V10/42 , G06V10/80
Abstract: 一种结合CNN和Transformer的烤烟烟叶图像分级方法,先拍照采集烤烟烟叶图像建立烤烟烟叶数据集;接着将烤烟烟叶数据集进行预处理;然后将经过预处理后的烤烟烟叶数据集输入至烤烟烟叶图像分类模型中进行分类训练,由定位模块得到烟叶图像的目标位置、关键局部区域,由定位模块计算原始损失,根据该原始损失对烤烟烟叶图像分类模型参数进行更新,再然后由分类模块根据关键局部区域得到分类结果,由分类模块计算分类损失,根据该分类损失对烤烟烟叶图像分类模型参数进行再次更新,得到优化后的烤烟烟叶图像分类模型;最后,将待分类的烤烟烟叶图像输入至已训练好的烤烟烟叶图像分类模型中,输出烟叶的分类结果。本发明可靠、有效,分类效果好。
-
公开(公告)号:CN113570516B
公开(公告)日:2022-07-22
申请号:CN202110778551.0
申请日:2021-07-09
Applicant: 湖南大学 , 浦湘生物能源股份有限公司
Abstract: 基于CNN‑Transformer混合自编码器的图像盲运动去模糊方法,所述方法包括两个阶段,分别为模型训练阶段和预测阶段,模型训练阶段包括以下步骤:步骤一:准备图像去模糊标准数据集;步骤二:实验数据预处理;步骤三:将图像去模糊标准数据集的训练集中的模糊图片输入混合自编码器部分进行恢复;步骤四:将混合自编码器生成的潜在清晰图像与其标准数据集中相对应的目标清晰图片一起输入判别器,判别器计算损失后返回梯度;步骤五:混合自编码器接收来自判别器的梯度进行参数更新;模型预测阶段包括一个步骤:将模糊图片输入训练好的混合自编码器,输出即是去模糊后的清晰图片。利用本发明,能得到更好的图像去模糊效果,对图像细节产生更清晰的恢复。
-
-
-
-
-
-
-
-
-