一种图片加密方法、解密方法、加密系统及相关装置

    公开(公告)号:CN113726979B

    公开(公告)日:2024-04-26

    申请号:CN202110876887.0

    申请日:2021-07-31

    Abstract: 本申请提供一种图片加密方法,包括:获取待加密图片,利用DNN分类模型对所述待加密图片进行前向计算;所述DNN分类模型包括输入层、隐含层和输出层,所述隐含层包含若干中间层;记录所述待加密图片经过每层时的元数据;将所述元数据作为所述待加密图片的加密数据。本申请实现加密过程可控制,且难以破解,且所得到的元数据可以根据信息量选择提取部分元数据作为加密数据,使得得到的加密数据远小于原始信息。本申请还提供一种图片解密方法、图片加密系统、计算机可读存储介质和电子设备,具有上述有益效果。

    图像数据生成方法、模型训练方法、装置、设备及介质

    公开(公告)号:CN114140619A

    公开(公告)日:2022-03-04

    申请号:CN202111278700.3

    申请日:2021-10-31

    Abstract: 本申请公开了一种图像数据生成方法、模型训练方法、装置、设备及介质,该方法包括:构建包含第一正则项和第二正则项的目标函数;获取预先经过训练的初始神经网络模型,然后从初始神经网络模型的归一化层中提取出预保存特征图信息;创建噪声图像,并将噪声图像作为初次迭代图像,然后提取出初次迭代图像的特征图;以初次迭代图像的特征图、预保存特征图信息和初次迭代图像作为初次迭代参数,并基于预设迭代次数针对目标函数展开多次迭代运算,以生成相应的图像数据,以便将图像数据作为训练数据对初始神经网络模型进行重新训练。通过上述方案,实现了能够避免获取原始数据集困难的情况,进而提高初始神经网络模型的精确度。

    一种CNN分析方法、装置、设备及计算机可读存储介质

    公开(公告)号:CN113850333A

    公开(公告)日:2021-12-28

    申请号:CN202111137999.0

    申请日:2021-09-27

    Abstract: 本发明公开了一种CNN分析方法,考虑到CNN模型的每一个卷积层在对图像进行处理时实际是利用自身的统计信息对图像进行处理,因此本申请在基于已训练神经网络模型的反向生成算法中添加了基于统计信息构建的特征表达式,得到新的反向生成算法,如此一来,通过新的反向生成算法生成的图像便能够反映出目标卷积层的一些特性,也即可以实现对于CNN模型中各个卷积层的可解释性分析,以便细致了解CNN模型中每一层的具体特征,并对CNN模型进行针对性改进,促进了CNN模型的发展。本发明还公开了一种CNN分析装置、设备及计算机可读存储介质,具有如上CNN分析方法相同的有益效果。

    一种图像实例标注方法、装置、设备及介质

    公开(公告)号:CN114863120B

    公开(公告)日:2024-11-26

    申请号:CN202210428476.X

    申请日:2022-04-22

    Abstract: 本申请公开了一种图像实例标注方法、装置、设备及介质,涉及计算机视觉技术领域,所述方法包括:通过卷积神经网络对目标图像进行特征提取,得到提取后卷积特征;基于提取后卷积特征确定出一个或多个目标预测框以及目标预测框的坐标向量;利用目标预测框对提取后卷积特征进行截取,并通过图卷积网络对每一目标预测框对应的截取后特征分别进行实例类别标注以及实例坐标标注,得到目标图像中每一目标预测框内的目标实例分别对应的类别向量以及标注坐标序列,可见,本申请通过目标预测框对所述目标图像的卷积特征进行截取,并对截取后特征进行进一步的推理,精简了网络结构中复杂的多尺度特征,提高了生产效率。

    图像数据生成方法、模型训练方法、装置、设备及介质

    公开(公告)号:CN114140619B

    公开(公告)日:2024-09-06

    申请号:CN202111278700.3

    申请日:2021-10-31

    Abstract: 本申请公开了一种图像数据生成方法、模型训练方法、装置、设备及介质,该方法包括:构建包含第一正则项和第二正则项的目标函数;获取预先经过训练的初始神经网络模型,然后从初始神经网络模型的归一化层中提取出预保存特征图信息;创建噪声图像,并将噪声图像作为初次迭代图像,然后提取出初次迭代图像的特征图;以初次迭代图像的特征图、预保存特征图信息和初次迭代图像作为初次迭代参数,并基于预设迭代次数针对目标函数展开多次迭代运算,以生成相应的图像数据,以便将图像数据作为训练数据对初始神经网络模型进行重新训练。通过上述方案,实现了能够避免获取原始数据集困难的情况,进而提高初始神经网络模型的精确度。

    梯度压缩方法、装置、设备、分布式集群系统及存储介质

    公开(公告)号:CN117910521B

    公开(公告)日:2024-06-14

    申请号:CN202410317335.X

    申请日:2024-03-20

    Abstract: 本发明公开了一种梯度压缩方法、装置、设备、分布式集群及存储介质,属于分布式计算领域,用于别参考模型性能优化速率以及当前的单步训练时长两个指标,对梯度压缩程度进行调节,解决了应对低速网络进行梯度压缩时无法平衡模型性能与通信开销的问题。本发明以单个训练步为粒度,在预热阶段后的任一个训练步得到梯度数据后,在模型性能优化速率不达标的情况下对梯度压缩程度进行缩小,以便提升模型性能,而在模型性能优化速率达标且当前的单步训练时长超标的情况下,便可对梯度压缩程度进行放大,以便降低通信开销,本发明可结合网络状况的影响动态的调节梯度数据的压缩程度,从而在兼顾模型性能与网络状况的基础上,尽可能的降低通信开销。

    文本生成方法及其模型梯度剪枝方法、装置、设备、介质

    公开(公告)号:CN117910536A

    公开(公告)日:2024-04-19

    申请号:CN202410309633.4

    申请日:2024-03-19

    Abstract: 本发明涉及人工智能技术领域,公开了文本生成方法及其模型梯度剪枝方法、装置、设备、介质,训练预热阶段保持文本生成模型当前的模型梯度不变;非训练预热阶段,基于滑窗尺寸信息和性能损失函数,确定出文本生成模型在每个训练步数下以损失函数变化率为表征的性能;根据设定的训练状态条件以及每个训练步数下以损失函数变化率为表征的性能和单步训练时长,依次对每个训练步数下的梯度剪枝量进行调整。每得到一个调整后的梯度剪枝量,则按照调整后的梯度剪枝量对文本生成模型进行梯度剪枝操作,直至当前训练步数达到文本生成模型的总训练步数,结束对文本生成模型的剪枝操作,保证了文本生成模型的训练任务能够在低速不稳定的网络环境中顺利完成。

    梯度压缩方法、装置、设备、分布式集群及存储介质

    公开(公告)号:CN117910521A

    公开(公告)日:2024-04-19

    申请号:CN202410317335.X

    申请日:2024-03-20

    Abstract: 本发明公开了一种梯度压缩方法、装置、设备、分布式集群及存储介质,属于分布式计算领域,用于别参考模型性能优化速率以及当前的单步训练时长两个指标,对梯度压缩程度进行调节,解决了应对低速网络进行梯度压缩时无法平衡模型性能与通信开销的问题。本发明以单个训练步为粒度,在预热阶段后的任一个训练步得到梯度数据后,在模型性能优化速率不达标的情况下对梯度压缩程度进行缩小,以便提升模型性能,而在模型性能优化速率达标且当前的单步训练时长超标的情况下,便可对梯度压缩程度进行放大,以便降低通信开销,本发明可结合网络状况的影响动态的调节梯度数据的压缩程度,从而在兼顾模型性能与网络状况的基础上,尽可能的降低通信开销。

    一种图像上色方法及相关装置

    公开(公告)号:CN113706647B

    公开(公告)日:2024-02-13

    申请号:CN202110873360.2

    申请日:2021-07-30

    Abstract: 本申请公开了一种图像上色方法,包括:将原始图像输入分类模型进行处理,并获取所述处理的过程中每一层与BN层间的差值;根据损失函数对所有所述差值进行计算,得到总体损失值;通过反向传播算法根据所述总体损失值对所述原始图像进行反向求导,得到导数;采用优化算法根据所述导数对原始图像进行更新,得到上色图像,以便降低图像上色过程投入的人力成本,提高处理效率。本申请还公开了一种图像上色装置、服务器以及计算机可读存储介质,具有以上有益效果。

    一种图像上色方法及相关装置

    公开(公告)号:CN113706647A

    公开(公告)日:2021-11-26

    申请号:CN202110873360.2

    申请日:2021-07-30

    Abstract: 本申请公开了一种图像上色方法,包括:将原始图像输入分类模型进行处理,并获取所述处理的过程中每一层与BN层间的差值;根据损失函数对所有所述差值进行计算,得到总体损失值;通过反向传播算法根据所述总体损失值对所述原始图像进行反向求导,得到导数;采用优化算法根据所述导数对原始图像进行更新,得到上色图像,以便降低图像上色过程投入的人力成本,提高处理效率。本申请还公开了一种图像上色装置、服务器以及计算机可读存储介质,具有以上有益效果。

Patent Agency Ranking