-
公开(公告)号:CN115761259B
公开(公告)日:2023-11-24
申请号:CN202211418560.X
申请日:2022-11-14
Applicant: 湖南大学
IPC: G06V10/44 , G06N3/04 , G06N3/08 , G06V10/764 , G06V10/766 , G06V10/80 , G06V10/82
Abstract: 本发明公开了一种基于类别平衡损失函数的厨余垃圾目标检测方法和系统,包括构建厨余垃圾检测数据集;构建厨余垃圾目标检测模型,包括特征提取网络、特征融合网络、区域建议生成网络、RoI Transformer网络和检测头部网络;构建L1回归损失函数和类别平衡损失函数,根据厨余垃圾检测数据集中的训练集对目标检测模型进行训练,结合类别目标的边界框回归结果、分类结果概率、预设的目标真实边界框和类别标签对训练中的厨余垃圾目标检测模型使用梯度下降法反向传播损失梯度进行网络权重更新;获取实际厨余垃圾图像,根据训练好的厨余垃圾目标检测模型进行检测得到目标检测结果。有效提升了厨余垃圾中可回收垃圾各类别的检测精度。
-
公开(公告)号:CN116363138A
公开(公告)日:2023-06-30
申请号:CN202310638350.X
申请日:2023-06-01
Applicant: 湖南大学
IPC: G06T7/00 , G06V10/764 , G06V10/774 , G06V10/82 , B07C5/00
Abstract: 本发明公开了一种用于垃圾分拣图像的轻量化集成识别方法,搭建轻量化集成识别网络,包括基础预测模型、两个轻量化集成分类器单元B1、B2;基础预测模型分为前端结构和末端分类器单元B0;B1、B2的主干结构采用与B0相同,并在最后一个卷积层与全局池化层之间增加通道注意力机制;训练基础预测模型;将B1、B2的通道注意力机制之前的结构参数固定为与B0一致,并使用其当前训练集训练B1、B2的其余结构参数;基于错误预测结果的类别,更新B1、B2的训练集使两者差异化,并重新训练对应的分类器单元;使用投票模块结合B0、B1、B2对垃圾分拣图像进行轻量化的集成识别。本发明可大幅提升垃圾分拣图像的分类精度。
-
公开(公告)号:CN115455341B
公开(公告)日:2023-02-07
申请号:CN202211346050.6
申请日:2022-10-31
Applicant: 湖南大学
Abstract: 一种原材料下料排样的求解方法,包括如下步骤:S1、确定原材料的长度、每种下料工件的数量、每种下料工件的尺寸大小;S2、建立原始数学模型,对原始数学模型矩阵化得到简化后的数学模型;S3、建立初始单位矩阵,引入常量参数,然后对简化后的数学模型进行初等行变化,得到新数学模型;S4、借助优化器对新数学模型进行求解,得到初始可行解;S5、基于初始可行解,利用CG算法求解到最优松弛解若该松弛解不是非负整数,则对其进行取整以得到整数解,选择S4和S5中最好的解为原材料下料排样方案。本发明提出一种基于新数学模型改进的CG算法以求解低需求的下料问题,可很好地提升CG算法的求解质量。
-
公开(公告)号:CN108592788B
公开(公告)日:2020-07-24
申请号:CN201810271919.2
申请日:2018-03-29
Applicant: 湖南大学
IPC: G01B11/00
Abstract: 本发明公开了一种面向喷涂生产线的3D智能相机系统与工件在线测量方法,其包括以下步骤:S1:设定成像设备以完成成像;S2:提取目标工件深度图像;滤除背景噪音并提取出目标工件深度图像;S3:对所述目标工件深度图像经过多尺度多结构元素的形态学边缘检测得到目标工件深度图像的单边缘轮廓;S4:对所述目标工件单边缘轮廓经过像素灰度极值搜索操作,完成二维图像坐标系内所述目标工件的尺寸测量,通过三维图元自适应步长线扫描和截尾均值统计,完成待喷涂工件点云中关键点的提取。本发明具有操作简便、效率和自动化程度高、测量精度高等优点。
-
公开(公告)号:CN111024278A
公开(公告)日:2020-04-17
申请号:CN201911045164.5
申请日:2019-10-30
Applicant: 湖南大学
Abstract: 本发明公开了一种新多敏感体分区灵敏力传感器,传感器包括层叠式多敏感区力敏元件、三路检测电路、信号调理电路、信息解耦系统,其中的层叠式多敏感区力敏元件包括底座、三组层叠式力感元件、应变检测元件、承载平台。每个层叠式力敏元件在X、Y、Z三个坐标方向都包括多个相互独立的应变敏感单元。在每个应变敏感单元正反两面上按特定的策略布置了应变检测元件。本发明针对现有力传感器难以满足同时具备大量程及高灵敏度的要求,通过设计力传感器的多个敏感体,各个敏感体在宽量程内自动分区灵敏,最终实现传感器在整个大量程范围中实现多灵敏度测量。
-
公开(公告)号:CN108592788A
公开(公告)日:2018-09-28
申请号:CN201810271919.2
申请日:2018-03-29
Applicant: 湖南大学
IPC: G01B11/00
Abstract: 本发明公开了一种面向喷涂生产线的3D智能相机系统与工件在线测量方法,其包括以下步骤:S1:设定成像设备以完成成像;S2:提取目标工件深度图像;滤除背景噪音并提取出目标工件深度图像;S3:对所述目标工件深度图像经过多尺度多结构元素的形态学边缘检测得到目标工件深度图像的单边缘轮廓;S4:对所述目标工件单边缘轮廓经过像素灰度极值搜索操作,完成二维图像坐标系内所述目标工件的尺寸测量,通过三维图元自适应步长线扫描和截尾均值统计,完成待喷涂工件点云中关键点的提取。本发明具有操作简便、效率和自动化程度高、测量精度高等优点。
-
公开(公告)号:CN120070579A
公开(公告)日:2025-05-30
申请号:CN202510525838.0
申请日:2025-04-25
Applicant: 湖南大学
Abstract: 本发明公开了一种基于视触觉感知的机械手持针灸针的姿态估计方法与系统,方法包括:使用夹持器在当前姿态和目标姿态下抓取针灸针,获取对应姿态下的触觉图像;对触觉图像处理以计算针灸针在两种不同姿态触觉图像中的角度、长度和位置,并计算由当前姿态到目标姿态的粗略匹配矩阵;对触觉图像处理以生成对应姿态下的触觉点云,然后基于粗略匹配矩阵对当前姿态下的触觉点云进行2D姿态对齐,再基于2D对齐后的触觉点云和目标姿态下的触觉点云并采用ICP点云配准方法,计算精细变换矩阵;基于粗略匹配矩阵和精细变换矩阵控制机械手夹持器进行旋转和平移。本发明相比于仅使用ICP匹配的姿态估计具有更好的对齐能力和更快的收敛性。
-
公开(公告)号:CN119880232A
公开(公告)日:2025-04-25
申请号:CN202510390421.8
申请日:2025-03-31
Applicant: 湖南大学
Abstract: 本发明公开了一种FBG式螺旋梁高灵敏度并联六维力传感器,包括:固定平台、测量平台和若干根弹性连接梁;固定平台和测量平台均为空心圆柱,测量平台同心设置于固定平台的内部;若干根弹性连接梁的远端,均匀分布且固定于测量平台外侧面的中心圆环上;若干根弹性连接梁的近端,相互间隔固定于所述固定平台内侧面的上、下两端面处;每根弹性连接梁的内部均设置光纤,每根光纤的两端分别固定于测量平台与固定平台的对应侧面上,且每根光纤从固定平台的外侧面引出;测量平台受到力/力矩时传递至弹性连接梁,弹性连接梁的变形导致内部光纤的光栅中心波长发生漂移,从而由中心波长的漂移得到六维力值。本发明可获得更高的灵敏度以及更高的分辨率。
-
公开(公告)号:CN119533475A
公开(公告)日:2025-02-28
申请号:CN202411599777.4
申请日:2024-11-11
Applicant: 湖南大学
Abstract: 本发明公开了基于YOLOv8与XFeat深度特征相结合的水下SLAM方法,所述水下SLAM方法包括初步水下图像处理、YOLOv8图像检测、提取XFeat特征并匹配,随后在ORB‑SLAM3框架下,完成整个水下SLAM系统。首先对相机提取的图像进行增强;然后基于YOLOv8对增强后的图像进行目标检测,获取静态和动态目标的检测框并标记;XFeat模型是一种基于卷积神经网络架构,用特殊策略进行特征提取和匹配,随后将匹配结果传递至SLAM系统中,完成地图构建、相机位姿估计等功能;该发明能够实现让水下自主机器人克服水下恶劣光学环境,减弱动态目标干扰,实现较为精准的定位自身,同时保证实时性和鲁棒性。
-
公开(公告)号:CN119048380B
公开(公告)日:2025-02-11
申请号:CN202411537722.0
申请日:2024-10-31
Applicant: 湖南大学
IPC: G06T5/60 , G06N3/0464
Abstract: 本发明公开了一种基于离散小波变换和深度网络的多尺度融合图像增强方法,包括:步骤1,采用DWT将待增强图像分解得到高频分量和低频分量;步骤2,使用特征提取模块对低频分量提取特征得到第一分量特征图,同时将中间层得到的特征信息进行DWT,保留所得高频信息作为第二分量特征图;步骤3,使用反卷积网络解码模块,将第一第二特征分量特征图进行上采样和多尺度融合、解码,得到增强的低频分量特征图;步骤4,对高频分量特征图与增强的低频分量特征图,进行IDWT得到重构图像;步骤5,将待增强图像和重构图像,使用细化模块处理,融合得到最终的增强图像。本发明能够在较低计算资源消耗的情况下,显著提高图像的视觉效果和信息质量。
-
-
-
-
-
-
-
-
-