基于CP-VTON改进的虚拟试衣系统
    1.
    发明公开

    公开(公告)号:CN119339195A

    公开(公告)日:2025-01-21

    申请号:CN202411369225.4

    申请日:2024-09-29

    Abstract: 本发明公开了一种基于CP‑VTON改进的虚拟试衣系统,包含:数据输入模块,用于输入人体图像和衣服图像;几何匹配模块;几何匹配模块包含:两个基于ELAN改进的多维特征提取模块,分别用于提取人体图像和衣服图像的特征;两个ECA注意力模块,分别用于对基于ELAN改进的多维特征提取模块提取到的特征进行通道注意力划分;相似性计算模块,用于对两个ECA注意力模块的输出进行相似度计算,形成一系列对应关系;回归网络模块,用于根据上述对应关系估计几何模型的参数;转换模块,用于通过得到的参数对衣服图像做扭曲转换处理。本发明的基于CP‑VTON改进的虚拟试衣系统,丰富了特征提取,增强图案纹理记忆能力以及提高人体姿态与服装的适配程度。

    服装流行趋势预测方法
    4.
    发明公开

    公开(公告)号:CN119168696A

    公开(公告)日:2024-12-20

    申请号:CN202411358613.2

    申请日:2024-09-27

    Abstract: 本发明公开了一种服装流行趋势预测方法,包含:收集历史服装销售数据得到原始销售数据;对原始销售数据进行预处理;将预处理后的数据进行CEEMDAN分解;将分解得到的IMFs特征进行降维,以消除IMFs特征的相关性与冗余性;利用降维后的IMFs特征与日销售量的真实标签进行结合,构建适用于Transformer模型输入的时间序列数据集;利用得到的时间序列数据集进行Transformer预测模型的训练;利用训练好的Transformer模型进行未来数天的服装日销售量预测,并输出服装日销售量的预测数据。本发明的服装流行趋势预测方法,通过结合CEEMDAN分解、KPCA降维和Transformer模型,提供了一种有效提高服装销售预测准确性的方法,为服装流行趋势的科学预测提供了新的解决方案。

    一种基于生成对抗网络的服装风格迁移方法

    公开(公告)号:CN117372241A

    公开(公告)日:2024-01-09

    申请号:CN202311091375.9

    申请日:2023-08-29

    Abstract: 本发明涉及一种基于生成对抗网络的服装风格迁移方法,该方法在提取输入图像的特征之前,先对图像进行预处理,将处理后的目标风格服装图像和待转换风格的服装图像同时输入到添加了自注意力机制的循环风格迁移网络模型中,先由生成器和自注意力模块同时对输入的目标风格服装图像的风格进行迁移,得到虚拟服装风格图片;然后通过判别器对生成的虚拟服装风格图片进行判别,并将判别结果反馈给自注意力模块和生成器,同时不断优化判别器的参数设置,直到判别器的判别结果为真,则输出风格迁移后的合成图片。本发明在生成对抗网络的总损失函数中额外引入了最小二乘损失函数作为生成对抗损失,还引入了上下文保持损失函数,令生成的图像更加真实。

    一种基于VAE的虚拟试衣匹配系统及方法

    公开(公告)号:CN119418014A

    公开(公告)日:2025-02-11

    申请号:CN202411354854.X

    申请日:2024-09-26

    Abstract: 本发明涉及虚拟试衣技术领域,具体提供了一种基于VAE的虚拟试衣匹配系统及方法,旨在解决现有技术中虚拟试衣的技术方案比较耗时,且试穿效果缺乏真实感的问题。在本发明中,三维服装生成模块通过VAE模型生成三维服装,三维身体生成模块通过用户输入的身体图像生成三维身体模型,服装匹配模型通过用户输入的穿衣偏好信息筛选出较符合用户穿衣偏好的三维服装,虚拟试衣模块将筛选出来的三维服装贴合在三维身体模型上,完成虚拟试衣。本发明通过VAE模型生成的三维服装上的纹理更加精细逼真,且生成成本较低,效率更高,使得三维服装能够较好地贴合在三维身体模型上,增强视觉效果的真实感,实现更真实和逼真的试穿效果。

    改进Transformer模型、文本翻译方法和系统

    公开(公告)号:CN119167930A

    公开(公告)日:2024-12-20

    申请号:CN202411369112.4

    申请日:2024-09-29

    Abstract: 本发明公开了一种改进Transformer模型、文本翻译方法和系统,该方法包含:对Multi30k机器翻译数据集进行解析,划分训练集、验证集、测试集。分别对英文文本和德文文本进行分词处理与词频统计;根据词频对分词按照索引进行编码从而构建词表;将原本的字符文本按照词表映射成数型编码;构建改进Transformer模型,改进Transformer模型包含自适应长短头注意力机制模块,自适应长短头注意力机制模块对输入向量的维度进行不等份划分;对改进Transformer模型进行训练;通过改进Transformer模型进行。本发明的改进Transformer模型、文本翻译方法和系统,将Transformer模型中的多头注意力机制模块替换成自适应长短头注意力机制模块,赋予多个注意力头不同长短的维度,使模型提取不同长短维度之间的特征信息。

    提升模型性能的色彩空间转换方法及通道分割卷积方法

    公开(公告)号:CN117291999A

    公开(公告)日:2023-12-26

    申请号:CN202311103853.3

    申请日:2023-08-30

    Abstract: 本发明涉及提升模型性能的色彩空间转换方法及通道分割卷积方法,将常用的RGB色彩空间转换到XYZ色彩空间下进行特征提取,并在转换时改进了现有的转换矩阵,令原RGB三通道的含量不变,并在每一通道中适当添加了另外两个通道的含量,令每个通道的信息更加丰富,可以放大噪声点的点像素值,使得原有的噪声失效或变大能被模型更好的识别,更有利于特征的提取。再基于卷积神经网络模型来检测织物瑕疵的模型构建上,将卷积层原本输入的n通道原始数据利用上述改进后色彩空间转换方式进行通道重新分割,以获得更利于该卷积层特征提取的新n通道数据,进一步提升模型的性能。

    一种基于多模态的服装搭配推荐方法及系统

    公开(公告)号:CN119323708A

    公开(公告)日:2025-01-17

    申请号:CN202411390624.9

    申请日:2024-10-05

    Abstract: 本发明涉及个性化服装推荐技术领域,具体提供了一种基于多模态的服装搭配推荐方法及系统,旨在解决现有技术中基于单模态的服装推荐系统为用户推荐的服装的准确性和个性化较低的问题。本发明将输入的文本描述和原始服装图像分别编码成文本特征和服装图像特征;再将二者融合形成融合特征;多模态条件生成对抗网络根据融合特征生成搭配服装图像集,并结合用户偏好信息筛选出相符合的搭配服装图像。本发明多模态数据输入,可以同时接收并处理文本描述和原始服装图像,使得服装搭配推荐系统能够更精确地理解用户的需求,从而生成搭配精准度更高,质量更好,更符合用户需求且更个性化的搭配服装,提高用户的使用体验。

Patent Agency Ranking