-
公开(公告)号:CN114549757A
公开(公告)日:2022-05-27
申请号:CN202210172212.2
申请日:2022-02-24
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种基于注意力机制的三维点云上采样方法,包括以下步骤:步骤1:三维点云数据预处理;步骤2:构建基于注意力机制的三维点云上采样网络结构;步骤3:建立目标点云和输出点云之间的损失函数;步骤4:采用公开数据集进行训练及测试,输出最终结果。本方法提出了基于注意力机制的三维点云上采样网络,进一步加强了对局部特征和邻域关系的学习,并加入残差结构以优化信息传递过程,提高了三维点云上采样的准确率,降低了目标点云与上采样所得点云之间的损失。通过实验结果显然证实了所提出方法的高效性与实用性,本发明方法对三维点云上采样更高效和准确。
-
公开(公告)号:CN114332565A
公开(公告)日:2022-04-12
申请号:CN202111670694.6
申请日:2021-12-31
Applicant: 杭州电子科技大学
IPC: G06V10/774 , G06K9/62 , G06N3/04 , G06N3/08
Abstract: 本发明公开了一种基于分布估计的条件生成对抗网络文本生成图像方法用。本发明步骤如下:步骤(1)、数据预处理,提取文本数据的特征;步骤(2)、建立多阶段的无条件和有条件联合生成对抗神经网络和损失函数;步骤(3)、引入基于分布估计的损失函数;步骤(4)、模型训练;根据得到的新的损失函数,在训练过程中对判别器Di和生成器Gi进行交替训练。本发明损失隐式地体现了单个文本生成无限次图像的影响,优化的目标为单个文本描述生成图像的特征分布。通过估计单个文本描述生成的图像的特征分布,来实现损失计算及梯度信息回传。在多个模型和数据集上的实验表明,基于分布估计的新损失函数能够有效提升文本生成图像模型的性能。
-
公开(公告)号:CN114139198A
公开(公告)日:2022-03-04
申请号:CN202111431904.6
申请日:2021-11-29
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种基于层次k匿名身份替换的人脸生成隐私保护方法,首先进行人脸图像数据集预处理,然后构建层次k匿名生成对抗网络结构,构建层次k匿名的目标函数;再构建人脸替换生成对抗网络结构,构建人脸替换的目标函数;最后使用公开数据集进行训练及测试,得到训练好的层次k匿名生成对抗网络和人脸替换生成对抗网络。本发明替换的目标人脸也是通过网络生成的,从而不会侵犯他人的隐私,相对以往的马赛克遮挡的方法更有效并且视觉上更友好。通过实验结果显然证实了所提出方法的高效性与实用性,对人物图像的隐私保护更高效和美观。
-
公开(公告)号:CN114049314A
公开(公告)日:2022-02-15
申请号:CN202111262731.X
申请日:2021-10-28
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种基于特征重排和门控轴向注意力的医学图像分割方法。首先,把所有的原始图像和真实分割图像统一为相同大小的尺寸,再对调整后的训练图像进行随机的水平/垂直翻转,提高了样本的多样性。其次,采用特征重排进行下采样,更好的保留了原始图像的特征,采用逆向特征重排进行上采样,提高的网络的解码能力。然后,协同训练全局分支与局部分支,分别提取图像的全局信息交互与局部信息交互。最后,合并两部分信息来对图像进行分割。同时,通过优化参数设置,利用适当的训练技巧,实现了更精确的医学图像分割效果。
-
公开(公告)号:CN113792177A
公开(公告)日:2021-12-14
申请号:CN202110896688.6
申请日:2021-08-05
Applicant: 杭州电子科技大学
IPC: G06F16/583 , G06F16/332 , G06F16/33 , G06N3/04 , G06N3/08
Abstract: 本发明公开了一种基于知识引导深度注意力网络的的场景文字视觉问答方法。本发明步骤:1、数据预处理及数据集的划分,2、构建问题的语言特征,3、构建图像的物体综合特征,4、获取图像的文本综合特征,5、构建前预测词的特征,6、构建相对空间关系特征,7、构建相对语义关系特征,8、构建深度神经网络,9、损失函数,10、训练模型,11、网络预测值计算。本发明通过建模物体对象和文本对象间的相对空间关系特征、前预测词和文本对象的相对语义关系特征,得到先验知识关系,并深度堆叠知识增强自注意力网络层数来获得更加丰富的信息,相比于先前基于卷积神经网络和构建对象间浅层关系的方法性能有了很大提升。
-
公开(公告)号:CN113538610A
公开(公告)日:2021-10-22
申请号:CN202110686459.1
申请日:2021-06-21
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种基于稠密流的虚拟试衣方法。本发明主要涉及利用深层神经网络生成目标语义分割图,并通过语义分割图利用可变形卷积神经网络预测稠密流,用于对源服装的特征信息进行空间形变并与目标人体信息融合得到服装转换的结果。本发明包括如下步骤:步骤(1)、生成目标语义分割图;步骤(2)、计算稠密流;步骤(3)、对人体信息和源服装信息进行融合得到最后的结果。本发明不需要服装的原始产品图,而是一张模特图,同时也能完成同一件服装在不同人物身上以不同视角的呈现,生成的结果纹理清晰,转换自然,目前获得了在该领域最好的效果。
-
公开(公告)号:CN113393546A
公开(公告)日:2021-09-14
申请号:CN202110535271.7
申请日:2021-05-17
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种基于服装类别及纹理图案控制的时尚服装图像生成方法。本发明构建了一个全新的数据集,同时在网络结构上进行了创新并且进行了有效性验证;参考设计师在设计服装的过程中先绘制时尚服装设计草图,然后再挑选相应的纹理图案布料应用到设计草图上完成服装设计的步骤,将整个任务分为了基于服装类别控制的时尚服装设计草图生成和基于纹理图案和设计草图控制的时尚服装图像生成两个部分;且两个部分是分开训练的,在完成两个部分的训练后将第一部分的输出作为第二部分时尚设计草图的输入就能拼接两个网络。本发明提高时尚服装的生成质量,增加了纹理扩展模块以优化纹理的生成,增加了梯度重构损失让生成的时尚服装图片更加清晰。
-
公开(公告)号:CN112989927A
公开(公告)日:2021-06-18
申请号:CN202110151201.1
申请日:2021-02-03
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种基于自监督预训练的场景图生成方法。本发明步骤如下:1、数据预处理及数据集的划分,2、使用训练好的目标检测网络对图像提取特征,3、构建目标的空间特征,4、构建自监督预训练网络模型,5、训练自监督预训练网络模型,6、构建自监督预训练和微调模型的场景图生成模型,7、训练场景图生成模型,8、网络预测值计算。本发明尤其是用于同时建模目标上下文和关系上下文在场景图生成的任务上取得了显著性的提升效果,超越了该任务上的大部分主流方法。并且本发明的基于自监督预训练的场景图生成方法在其他跨模态相关领域中如图像内容问答和视觉关系检测中也具有十分重要的应用价值和巨大的潜力。
-
公开(公告)号:CN112581360A
公开(公告)日:2021-03-30
申请号:CN202011609567.0
申请日:2020-12-30
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种结构约束的多风格图像美学质量增强方法。本发明步骤如下:(1)将输入图像数据转换为LAB空间的向量;(2)将转化为LAB空间的向量输入增强网络中,增强网络包含两个结构调整网络和像素调整网络;其中结构调整网络用于提升构图美观性;像素调整网络通过调整每个像素的数值,进一步调整图像的色彩和光影效果;(3)对提取的特征进行精进处理;将增强网络输出的特征输入精进网络中,得到最终输出的美学质量增强图像;(4)多尺度的多分布约束判别网络;采用多尺度的多分布约束判别网络来优化增强网络和精进网络,提高最终输出的美学质量增强图像的质量。本发明的结构调整网络可以自动提取最优的n个美化区域,而无需人为干预。
-
公开(公告)号:CN107743225B
公开(公告)日:2019-08-06
申请号:CN201710962452.1
申请日:2017-10-16
Applicant: 杭州电子科技大学
IPC: H04N17/00
Abstract: 本发明公开了一种利用多层深度表征进行无参考图像质量预测的方法。本发明包括如下步骤:步骤(1)数据预处理:将所有图像缩放到统一的尺寸大小,减去平局值,将二进制数据转换为深度神经网络能识别的数据格式;步骤(2)特征提取及处理:利用一个在ImageNet上训练好的37层VGGnet模型进行特征提取,提取每层特征并进行处理,得到一个列向量;步骤(3)预测分数:将每层特征融合得到的列向量输入支持向量回归模型得到每层特征的预测分数;将各层分数平均值作为整张图片的质量评估分值。本发明提出了一整简单高效的针对图像质量评价的新方法。并且获得了目前在图像质量评价领域中的最好效果。
-
-
-
-
-
-
-
-
-