-
公开(公告)号:CN117095173A
公开(公告)日:2023-11-21
申请号:CN202311187866.3
申请日:2023-09-14
Applicant: 昆明理工大学
IPC: G06V10/26 , G06V10/774 , G06V10/80 , G06V10/764
Abstract: 本发明提供了一种结直肠癌H&E染色病理图像语义分割方法及系统,涉及直肠癌H&E染色医学病理图像分割计算机视觉技术领域,该方法包括:获取目标病理区域的病理图像数据集;确定训练数据集、验证数据集和测试数据集,搭建基础语义分割网络;获取多尺度多级别语义特征;构建对称螺旋骨干特征融合网络;得到更新图像语义分割网络;基于所述更新图像语义分割网络,对权重模型进行训练,对更正图像数据测试集中的目标病理区域内的图像进行分割,解决了现有技术中存在的由于结直肠癌病理图像具有复杂的组织结构和多样化的病理变化,处理结直肠癌病理图像时分割难度大和分割精度较低的技术问题,实现了对结直肠癌的精确分割的效果。
-
公开(公告)号:CN116805407A
公开(公告)日:2023-09-26
申请号:CN202310762796.3
申请日:2023-06-27
Applicant: 昆明理工大学
IPC: G06V20/54 , G06T3/40 , G06V10/26 , G06V10/764 , G06V10/80 , G06V10/774 , G06N3/0464 , G06N3/0895
Abstract: 本发明公开了一种交通场景弱监督视频实例分割方法及系统,涉及弱监督视频实例分割领域,其中,所述方法包括:构建弱监督损失模块;基于位置特征细化模块,构建多尺度定位特征金字塔;构建分组调控模块;基于弱监督损失模块、多尺度定位特征金字塔和分组调控模块,构建交通场景弱监督视频实例分割模型;基于交通场景数据集提取交通场景实例;将所述交通场景实例输入所述交通场景弱监督视频实例分割模型,通过所述交通场景弱监督视频实例分割模型对所述交通场景实例进行分割。解决了目前由于弱监督视频实例分割网络像素级标注信息匮乏,而边界框信息监督强度不足,导致网络分割时获取目标位置信息存在误差、掩码分割质量较低的技术问题。
-
公开(公告)号:CN113936159A
公开(公告)日:2022-01-14
申请号:CN202111242070.4
申请日:2021-10-25
Applicant: 昆明理工大学
IPC: G06V10/762 , G06V10/44 , G06V10/82 , G06N3/04 , G06N3/08
Abstract: 本发明涉及一种基于调控网络的蚕茧下茧检测方法及系统,属于蚕茧检测技术领域。本发明方法包括配置图像采集系统参数,搭建图像采集系统;采集蚕茧线阵图像并通过计算机合成面阵图像,再通过对角线镜像的方法扩充图像,建立下茧检测数据集;将下茧检测数据集划分为训练集和测试集,对训练集和测试集中的图像进行标注;采用K‑means算法对所述下茧检测数据集进行聚类分析,预置YOLOv4目标检测模型候选框参数,以提升模型精度;采用模型深度调控的方法进行模型压缩以及设计轻量级卷积模块构建轻量级特征提取网络提升模型的速度。本发明方法可替人工在选茧时对下茧进行检测,解决蚕茧加工过程中选茧时以人工目测导致效率低下的问题,具有较高的检测速度和精度。
-
公开(公告)号:CN113269275A
公开(公告)日:2021-08-17
申请号:CN202110685414.2
申请日:2021-06-21
Applicant: 昆明理工大学
Abstract: 本发明涉及一种蚕茧下茧实时检测方法,属于蚕桑业加工技术领域。该方法通过对YOLOv3深度学习目标检测算法进行基于锚点框参数预置、通道剪枝和嵌入感受野模块改进后以在蚕茧生产加工过程中选茧时对下茧进行实时检测。该蚕茧分选机的上料装置用于蚕茧上料,输送装置用于输送蚕茧,图像采集装置用于对输送装置上的蚕茧进行拍照,获取蚕茧图像,下茧抓取装置用于对蚕茧进行抓取剔除,上车茧储存装置用于对蚕茧进行储存。蚕茧分选机根据下茧实时检测方法输出的坐标对下茧进行抓取剔除,对上车茧收集储存,从而提高了蚕茧生产加工的生产效率及茧丝质量,降低生产成本。本发明方法的蚕茧分选机具有结构简单、分选质量精准、工作效率高等特点。
-
公开(公告)号:CN113392804A
公开(公告)日:2021-09-14
申请号:CN202110749503.9
申请日:2021-07-02
Applicant: 昆明理工大学
Abstract: 本发明公开了一种基于多角度的交警目标数据集的场景化构建方法及系统,其中,所述方法包括:采集第一天气状况数据集,并进行分类,生成第一、第二天气状况数据子集;并分别获得第一、第二天气能见度;构建第一角度交警数据集;获得第一用户图像集合;对第一用户图像集合进行距离远近的分类,生成第二角度交警数据集;对第一用户图像集合进行性别差异的分类,生成第三角度交警数据集;构建第一用户的多场景执勤数据集,并进行特征标注。解决了现有技术中存在单独针对交警目标的数据集构建不够完善,且无法基于真实的道路交通场景进行构建,使得无法充分应用交警目标数据集对交警的指挥手势进行准确判定的技术问题。
-
公开(公告)号:CN113936159B
公开(公告)日:2025-02-07
申请号:CN202111242070.4
申请日:2021-10-25
Applicant: 昆明理工大学
IPC: G06V10/762 , G06V10/44 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明涉及一种基于调控网络的蚕茧下茧检测方法及系统,属于蚕茧检测技术领域。本发明方法包括配置图像采集系统参数,搭建图像采集系统;采集蚕茧线阵图像并通过计算机合成面阵图像,再通过对角线镜像的方法扩充图像,建立下茧检测数据集;将下茧检测数据集划分为训练集和测试集,对训练集和测试集中的图像进行标注;采用K‑means算法对所述下茧检测数据集进行聚类分析,预置YOLOv4目标检测模型候选框参数,以提升模型精度;采用模型深度调控的方法进行模型压缩以及设计轻量级卷积模块构建轻量级特征提取网络提升模型的速度。本发明方法可替人工在选茧时对下茧进行检测,解决蚕茧加工过程中选茧时以人工目测导致效率低下的问题,具有较高的检测速度和精度。
-
公开(公告)号:CN118429863A
公开(公告)日:2024-08-02
申请号:CN202410607850.1
申请日:2024-05-16
Applicant: 昆明理工大学
IPC: G06V20/40 , G06V10/764 , G06V10/82 , G06V10/52 , G06V10/26 , G06V10/32 , G06N3/09 , G06N3/0442 , G06N3/0464
Abstract: 本发明公开了一种先验距离引导的相似性记忆匹配视频实例分割方法,涉及视频分割技术领域。本发明在视频实例分割模型数据增强之前构建先验距离引导模块,引入距离信息给视频帧提供额外的空间结构信息;构建相似性记忆匹配模块在不同帧之间建立实例记忆匹配,根据实例之间的相似性进行匹配,改善模型稳定性;构建匹配损失函数,引导模型学习严重遮挡和消失重现的实例更具区分性的特征表示。通过所述基于先验距离引导模块,相似性记忆匹配模块,匹配损失函数,构建全监督在线视频实例分割模型。本发明解决了现有全监督在线视频实例分割在视频序列中下动态目标严重遮挡和消失重现导致分割错误的问题。
-
公开(公告)号:CN115272835A
公开(公告)日:2022-11-01
申请号:CN202210073712.0
申请日:2022-01-21
Applicant: 昆明理工大学
Abstract: 本发明提供了一种街道场景视频实例分割方法及系统,其中,所述方法包括:构建多感受野下采样模块;基于所述多感受野下采样模块设计空间位置信息补偿特征金字塔;构建锚框校准模块;基于所述锚框校准模块设计锚框校准检测器;基于所述空间位置信息补偿特征金字塔和所述锚框校准检测器构建街道场景视频实例分割模型;获得街道场景数据集,并基于所述街道场景数据集提取街道场景实例;使用所述街道场景视频实例分割模型对所述街道场景实例进行分割。解决了现有技术中存在多类型纵横比锚框采用单一感受野采样导致边缘特征提取不充分和特征金字塔高层特征空间位置细节信息匮乏的技术问题。
-
公开(公告)号:CN113239631B
公开(公告)日:2022-02-15
申请号:CN202110630248.6
申请日:2021-06-07
Applicant: 昆明理工大学
IPC: G06F30/27 , G06F119/02
Abstract: 本发明提供了一种提高复杂动态场景分割的建模方法及系统,方法包括:构建第一复杂动态图像数据库,训练获得第一级联卷积神经网络模型;获得第一损失函数,输入第一级联卷积神经网络模型训练获得第一级联卷积网络参数,进而获得第二级联卷积神经网络模型;将第一动态场景的第一场景序列输入第二级联卷积神经网络模型,获得第一特征映射结果,包括第一空时稀疏动态场景目标映射的表征结果和第一背景特征映射的表征结果;由第一特征映射结果获得第一目标的第一位置信息;构建第一条件随机场模型,对第一位置信息更新,获得第二位置信息。解决了现有技术中实现复杂动态场景广义目标高性能分割方法存在可行性低和稳定性差的技术问题。
-
公开(公告)号:CN113239631A
公开(公告)日:2021-08-10
申请号:CN202110630248.6
申请日:2021-06-07
Applicant: 昆明理工大学
IPC: G06F30/27 , G06F119/02
Abstract: 本发明提供了一种提高复杂动态场景分割的建模方法及系统,方法包括:构建第一复杂动态图像数据库,训练获得第一级联卷积神经网络模型;获得第一损失函数,输入第一级联卷积神经网络模型训练获得第一级联卷积网络参数,进而获得第二级联卷积神经网络模型;将第一动态场景的第一场景序列输入第二级联卷积神经网络模型,获得第一特征映射结果,包括第一空时稀疏动态场景目标映射的表征结果和第一背景特征映射的表征结果;由第一特征映射结果获得第一目标的第一位置信息;构建第一条件随机场模型,对第一位置信息更新,获得第二位置信息。解决了现有技术中实现复杂动态场景广义目标高性能分割方法存在可行性低和稳定性差的技术问题。
-
-
-
-
-
-
-
-
-