一种局部参数自适应的工业CT图像分割方法

    公开(公告)号:CN111091569A

    公开(公告)日:2020-05-01

    申请号:CN201911052700.4

    申请日:2019-10-31

    Abstract: 本发明公开了一种局部参数自适应的工业CT图像分割方法,提供一种能较好地对灰度不均匀图像进行分割的算法,即基于Phansalkar算法,利用遗传算法优化找到使目标像素方差与背景像素方差的绝对差值达到最小时的Phansalkar算法参数,将优化所得参数作为Phansalkar算法参数对当前窗口分割。此算法能较好地分割灰度不均匀图像,且此方法无参数,可移植性好。

    一种基于深度卷积神经网络的工业CT图像分割方法

    公开(公告)号:CN112330682A

    公开(公告)日:2021-02-05

    申请号:CN202011239518.2

    申请日:2020-11-09

    Abstract: 本发明请求保护一种基于深度卷积神经网络的工业CT图像分割方法,其包括以下步骤:步骤1、工业CT图像数据集的构建步骤,得到训练集、验证集和测试集;步骤2、制作标注样本;步骤3、设计基于深度卷积神经网络的工业CT图像分割的网络结构;步骤4,设计损失函数:使用一种改进的基于Dice系数和二分类交叉熵的损失函数作为的新的目标函数在训练期间来进行优化;步骤5,训练模型,采用tensorflow深度学习框架进行模型训练,模型训练预先采用Adam优化器不断优化步骤4中的自定义损失函数;步骤6,后处理步骤:采用全连接条件随机场对神经网络的分割结果进一步细化处理,不断优化分割结果。本发明分割效率高、精度高而且具有一定的通用性。

    一种基于边缘模型的增强现实无标识跟踪注册方法及装置

    公开(公告)号:CN110689573A

    公开(公告)日:2020-01-14

    申请号:CN201910841769.9

    申请日:2019-09-06

    Abstract: 本发明请求保护一种基于边缘模型的增强现实无标识跟踪注册方法及装置,涉及领域在增强现实无标识中跟踪注册的实时性和鲁棒性问题。目前针对三维物体表面缺少足够的纹理特征,因特征点少而引起的位姿抖动或扰动,并且算法搜索空间太大的缺陷。针对这些问题,该方法是采用保持旋转和尺度不变形的线性并行多模态LINE-MOD模板匹配方法快速识别目标物体、获取与当前视角接近的参考视图而完成相机位姿的估计,并将该位姿作为基于边缘模型跟踪注册方法的初始化位姿,从而避免人工手动给定初始化位姿。因此,本发明能够进行快速跟踪注册,具有良好的实时性和鲁棒性。

    一种基于边界捕捉的深度图像高精度修复方法

    公开(公告)号:CN109685732B

    公开(公告)日:2023-02-17

    申请号:CN201811553248.5

    申请日:2018-12-18

    Abstract: 本发明请求保护一种基于边界捕捉的深度图像高精度修复方法,其包括以下步骤:步骤1、首先设计了一种并行的深度图像和彩色图像的配准方法,从而快速完成彩色图像中每一个像素点深度值的获取;步骤2、其次在联合双边滤波器的基础上引入噪声核函数和从属核函数对深度图像进行降噪;步骤3、然后利用深度图像与彩色图像具有相似物体边界的特性,通过彩色图像物体边界对深度图像边界进行捕捉,获取深度图像物体边界处的“空洞”区域;步骤4、最后通过改进的快速进行法对空洞区域进行填补,本发明可以在保证实时性的前提下提高深度图像边缘精度。

    一种基于深度卷积神经网络的工业CT图像分割方法

    公开(公告)号:CN112330682B

    公开(公告)日:2022-08-26

    申请号:CN202011239518.2

    申请日:2020-11-09

    Abstract: 本发明请求保护一种基于深度卷积神经网络的工业CT图像分割方法,其包括以下步骤:步骤1、工业CT图像数据集的构建步骤,得到训练集、验证集和测试集;步骤2、制作标注样本;步骤3、设计基于深度卷积神经网络的工业CT图像分割的网络结构;步骤4,设计损失函数:使用一种改进的基于Dice系数和二分类交叉熵的损失函数作为的新的目标函数在训练期间来进行优化;步骤5,训练模型,采用tensorflow深度学习框架进行模型训练,模型训练预先采用Adam优化器不断优化步骤4中的自定义损失函数;步骤6,后处理步骤:采用全连接条件随机场对神经网络的分割结果进一步细化处理,不断优化分割结果。本发明分割效率高、精度高而且具有一定的通用性。

    一种基于全卷积神经网络的涡轮叶片CT图像分割方法

    公开(公告)号:CN113129321A

    公开(公告)日:2021-07-16

    申请号:CN202110425152.6

    申请日:2021-04-20

    Abstract: 本发明请求保护一种基于全卷积神经网络的涡轮叶片CT图像分割方法,其包括以下步骤:S1、采集图像数据;S2、数据预处理:S3、图像标注:S4、数据增强:采用在线增强和离线增强相结合的方式扩充训练数据集;S5、构建分割网络模型,主要包括编码器、解码器和跳跃连接;S6、设计损失函数:使用一种Focal Loss损失函数在训练期间来进行优化,该函数平衡正负样本比例,还加强对叶片边缘难分割的像素进行学习;S7、模型训练和测试:将训练集和验证集进行归一化后输入到S5中构建的分割网络中,将测试集中的图像进行相同的归一化然后输入到保存的最优模型中从而实现涡轮叶片CT图像分割。

    一种局部参数自适应的工业CT图像分割方法

    公开(公告)号:CN111091569B

    公开(公告)日:2024-02-13

    申请号:CN201911052700.4

    申请日:2019-10-31

    Abstract: 本发明公开了一种局部参数自适应的工业CT图像分割方法,提供一种能较好地对灰度不均匀图像进行分割的算法,即基于Phansalkar算法,利用遗传算法优化找到使目标像素方差与背景像素方差的绝对差值达到最小时的Phansalkar算法参数,将优化所得参数作为Phansalkar算法参数对当前窗口分割。此算法能较好地分割灰度不均匀图像,且此方法无参数,可移植性好。

    一种基于边缘模型的增强现实无标识跟踪注册方法及装置

    公开(公告)号:CN110689573B

    公开(公告)日:2022-07-01

    申请号:CN201910841769.9

    申请日:2019-09-06

    Abstract: 本发明请求保护一种基于边缘模型的增强现实无标识跟踪注册方法及装置,涉及领域在增强现实无标识中跟踪注册的实时性和鲁棒性问题。目前针对三维物体表面缺少足够的纹理特征,因特征点少而引起的位姿抖动或扰动,并且算法搜索空间太大的缺陷。针对这些问题,该方法是采用保持旋转和尺度不变形的线性并行多模态LINE‑MOD模板匹配方法快速识别目标物体、获取与当前视角接近的参考视图而完成相机位姿的估计,并将该位姿作为基于边缘模型跟踪注册方法的初始化位姿,从而避免人工手动给定初始化位姿。因此,本发明能够进行快速跟踪注册,具有良好的实时性和鲁棒性。

    基于改进的LINE-MOD模板匹配的刚性物体识别方法及装置

    公开(公告)号:CN110647925A

    公开(公告)日:2020-01-03

    申请号:CN201910842182.X

    申请日:2019-09-06

    Abstract: 本发明请求保护一种基于改进的LINE-MOD模板匹配的刚性物体识别方法及装置,涉及领域主要对少纹理或者无纹理物体识别方面的问题。目前基于特征描述子的方法对目标物体进行特征描述符计算时容易受到复杂背景的影响,基于深度学习的方法存在结构和训练过程复杂等缺点。针对这些问题,该方法是解决少纹理刚性物体识别的有效方法,并具有很好地实时性,同时LINE-MOD模版匹配方法是近年来最先进的模板匹配方法之一。但是该方法的主要缺点是只能在固定尺度对少纹理刚性物体进行识别,如何提高算法多尺度识别,仍有待研究。因此,本发明提出了基于改进的LINE-MOD模板匹配的刚性物体识别方法及装置,从而使得该方法在不同尺度下都能完成对目标物体进行识别。

    一种基于边界捕捉的深度图像高精度修复方法

    公开(公告)号:CN109685732A

    公开(公告)日:2019-04-26

    申请号:CN201811553248.5

    申请日:2018-12-18

    CPC classification number: G06T5/002 G06T5/005 G06T7/30 G06T7/80 G06T2207/10024

    Abstract: 本发明请求保护一种基于边界捕捉的深度图像高精度修复方法,其包括以下步骤:步骤1、首先设计了一种并行的深度图像和彩色图像的配准方法,从而快速完成彩色图像中每一个像素点深度值的获取;步骤2、其次在联合双边滤波器的基础上引入噪声核函数和从属核函数对深度图像进行降噪;步骤3、然后利用深度图像与彩色图像具有相似物体边界的特性,通过彩色图像物体边界对深度图像边界进行捕捉,获取深度图像物体边界处的“空洞”区域;步骤4、最后通过改进的快速进行法对空洞区域进行填补,本发明可以在保证实时性的前提下提高深度图像边缘精度。

Patent Agency Ranking