一种基于光滑性约束的深度神经网络图像分割方法

    公开(公告)号:CN117036695A

    公开(公告)日:2023-11-10

    申请号:CN202310910962.X

    申请日:2023-07-24

    Applicant: 郑州大学

    Abstract: 本发明提供一种基于光滑性约束的深度神经网络图像分割方法,采用基于曲线演化的光滑性损失计算方法作为神经网络分割模型的损失函数,本发明损失函数首先将分割标签转换为符号距离函数,提出了基于距离惩罚的内容损失度量,对于分割错误的像素点,其损失大小与距离标签边界的距离正相关,有效避免了出现误分割的小区域;然后,提出了无监督的长度损失度量,该度量基于水平集方法最小化预测Mask的边界长度,保证分割结果的光滑性。最后,为了解决由于长度损失函数可能过度约束导致预测图中分割目标消失从而误分的情况,提出了面积弥补损失度量,来为分割图像的过程中提供一个向外的“弥补”损失。

    一种毒驾试纸图像分割模型、定位分割方法及便携式装置

    公开(公告)号:CN113496482B

    公开(公告)日:2022-10-04

    申请号:CN202110559673.0

    申请日:2021-05-21

    Applicant: 郑州大学

    Abstract: 本发明提供了一种毒驾试纸图像分割模型、定位分割方法及便携式装置,其中,图像分割模型采用编码器‑解码器网络架构;在编码器网络部分,首先采用单层卷积提取图像特征,之后将图像特征逐渐传递至后续的三个采用跳层连接的卷积块ConvBlock,三个卷积块ConvBlock都由两组滑动步长为1的卷积层组合而成;在解码器网络部分,包括五个上采样组;定位分割方法包括:先进行网络模型训练,而后将待测原始图像作为输入图像,输入已训练好的网络模型,输出该图像中有效试纸区域;便携式装置,包括用于对检测试纸进行拍摄获取原始图像的摄像头和用于根据已训练好的毒驾试纸图像分割模型输出该图像中有效试纸区域的图像识别装置。

    一种毒驾试纸图像分割模型、定位分割方法及便携式装置

    公开(公告)号:CN113496482A

    公开(公告)日:2021-10-12

    申请号:CN202110559673.0

    申请日:2021-05-21

    Applicant: 郑州大学

    Abstract: 本发明提供了一种毒驾试纸图像分割模型、定位分割方法及便携式装置,其中,图像分割模型采用编码器‑解码器网络架构;在编码器网络部分,首先采用单层卷积提取图像特征,之后将图像特征逐渐传递至后续的三个采用跳层连接的卷积块ConvBlock,三个卷积块ConvBlock都由两组滑动步长为1的卷积层组合而成;在解码器网络部分,包括五个上采样组;定位分割方法包括:先进行网络模型训练,而后将待测原始图像作为输入图像,输入已训练好的网络模型,输出该图像中有效试纸区域;便携式装置,包括用于对检测试纸进行拍摄获取原始图像的摄像头和用于根据已训练好的毒驾试纸图像分割模型输出该图像中有效试纸区域的图像识别装置。

    一种用于压缩图像的轻量级超分辨率重建模型及系统

    公开(公告)号:CN115187455A

    公开(公告)日:2022-10-14

    申请号:CN202210657537.X

    申请日:2022-06-10

    Applicant: 郑州大学

    Abstract: 本发明提供一种用于压缩图像的轻量级超分辨率重建模型及系统,轻量级超分辨率重建模型包括:将HR图像的特征表示与C‑LR图像一起在压缩伪影去除子模块中进行训练;其中,HR图像的特征表示是使用VGG预训练模型从HR图像中提取出的特征表示;图像超分辨子模块将压缩伪影去除子模块复原出的LR图像作为输入,通过残差信息蒸馏网络来进行图像超分辨率。本发明通过构建轻量级超分辨率重建网络,设计目标函数和损失函数,加入特征表示来提升重建图像的细节,提升重建图像的质量,最终高清的高分辨率图像。

    一种融合语义控制的特定场景生成方法

    公开(公告)号:CN108564126B

    公开(公告)日:2022-04-19

    申请号:CN201810353922.9

    申请日:2018-04-19

    Applicant: 郑州大学

    Abstract: 本发明提供一种融合语义控制的特定场景生成方法,包括选取若干物品图以及多个包含该物品的不同特定场景图片;根据特定场景图片中特定场景的特点制作不同的属性标签,将特定场景图片裁剪处理后,获得训练样本;构建由判别器与生成器组成的条件生成式对抗网络;将物品图与标签一起作为输入,输入到生成器中,生成标签所描述的特定场景图;包含物品的特定场景图作为目标场景图,将由生成器生成的标签所描述的特定场景图、目标场景图、物品图及标签一同输入到判别器中,判别器通过条件对抗网络进行模型训练;将待处理的同类物品图及想要得到的场景以标签形式输入训练好的模型即可获得对应的场景图像。

    一种AC-YOLOX识别模型及安全帽佩戴识别方法

    公开(公告)号:CN116682135A

    公开(公告)日:2023-09-01

    申请号:CN202310058537.2

    申请日:2023-01-18

    Applicant: 郑州大学

    Inventor: 林楠 刘梦迪

    Abstract: 发明提供一种安全帽佩戴识别模型、识别方法、识别系统,识别模型采用以下步骤训练而得:拍摄工地员工安全帽佩戴视频数据并且截取不同帧数下的图片数据;使用labelme工具标注图片数据,分为hat、person两类,并将标签数据转化为VOC格式的数据集;使用数据增强方法扩充数据集,其中,Mosaic方法通过4张图像的随机拼接再缩放至相同输入尺寸大小,Mixup方法通过叠加不同图像方式模拟遮挡目标的效果;依据AC‑YOLOX识别模型构建识别网络;将数据集输入到AC‑YOLOX识别模型中进行训练和测试,按照7:1:2比例细化为训练集、测试集、验证集,最终得到AC‑YOLOX识别模型的模型文件。

    一种融合语义控制的特定场景生成方法

    公开(公告)号:CN108564126A

    公开(公告)日:2018-09-21

    申请号:CN201810353922.9

    申请日:2018-04-19

    Applicant: 郑州大学

    Abstract: 本发明提供一种融合语义控制的特定场景生成方法,包括选取若干物品图以及多个包含该物品的不同特定场景图片;根据特定场景图片中特定场景的特点制作不同的属性标签,将特定场景图片裁剪处理后,获得训练样本;构建由判别器与生成器组成的条件生成式对抗网络;将物品图与标签一起作为输入,输入到生成器中,生成标签所描述的特定场景图;包含物品的特定场景图作为目标场景图,将由生成器生成的标签所描述的特定场景图、目标场景图、物品图及标签一同输入到判别器中,判别器通过条件对抗网络进行模型训练;将待处理的同类物品图及想要得到的场景以标签形式输入训练好的模型即可获得对应的场景图像。

Patent Agency Ranking