一种交叉熵损失函数安全计算方法及系统

    公开(公告)号:CN114218617A

    公开(公告)日:2022-03-22

    申请号:CN202111362067.6

    申请日:2021-11-17

    Abstract: 本发明公开了一种交叉熵损失函数安全计算方法及系统,其中,上述方法包括:根据需要进行计算的输入概率分布序列生成第一概率输入序列和第二概率输入序列;根据需要进行计算的待输入标签序列生成第一标签输入序列和第二标签输入序列。分别使用第一计算终端针对第一概率输入序列和第一标签输入序列进行计算,使用第二计算终端针对第二概率输入序列和第二标签输入序列进行计算,计算过程中引入随机序列组对各数据进行保护,进一步防止数据泄露或隐私泄露,最后将获得的第一目标结果和第二目标结果相加则可以消除随机序列组的影响,获得实际的计算结果。计算过程中的数据是经过随机序列组保护后的数据,有利于提高交叉熵损失函数计算的安全性。

    基于加法秘密分享技术的高效安全线性整流函数运算方法

    公开(公告)号:CN113098840A

    公开(公告)日:2021-07-09

    申请号:CN202110212165.5

    申请日:2021-02-25

    Abstract: 本发明公开了一种基于加法秘密分享技术的高效安全线性整流函数运算方法,所述方法包括:获取来自第一服务器的第一数据以及来自第二服务器的第二数据;根据所述第一数据以及所述第二数据确定目标二进制字符串,并对所述目标二进制字符串执行拆分操作;将拆分后得到的数据分别发送给所述第一服务器和所述第二服务器,使所述第一服务器和所述第二服务器基于所述拆分后得到的数据调用安全比较算法,实现将所述目标二进制字符串与所述第一服务器、所述第二服务器之间的公共随机数进行比较,并基于比较结果输出安全线性整流函数运算的结果。解决了现有技术中实现一次安全线性整流函数运算需要产生大量通信开销,导致安全协议效率低下的问题。

    一种分布式FTP容器部署方法、装置、终端及存储介质

    公开(公告)号:CN115499308B

    公开(公告)日:2025-04-08

    申请号:CN202210972995.2

    申请日:2022-08-15

    Abstract: 本发明公开了一种分布式FTP容器部署方法、装置、终端及存储介质,方法包括:调用服务插件程序,通过服务插件程序读取共享存储服务器中的用户存储根目录信息,并将集群中用户信息同步初始化存储至FTP服务的数据库中;通过数据库中的用户信息对用户登入权限进行校验,并根据校验结果在共享存储服务器中配置对应的用户存储根目录信息及FTP服务访问权限文件;将配置后的FTP服务以helm容器化的方式部署至所述集群中。本发明通过Mysql数据库、FTP服务以及服务插件的多容器微服务分布式组网模式,提高了服务器整体的扩展性和高可用性,从而提高了用户文件的上传和下载的效率。

    一种基于集群的模型训练方法、装置、设备及存储介质

    公开(公告)号:CN114548206B

    公开(公告)日:2025-02-28

    申请号:CN202111542809.3

    申请日:2021-12-16

    Abstract: 本发明涉及模型训练技术领域,具体是涉及一种基于集群的模型训练方法、装置、设备及存储介质。本发明将待训练模型放在各个集群上利用各个集群上的局部数据进行模型的训练,本发明将待训练模型放在各个集群上,因此本发明不需要将各个集群上的数据迁移至各个集群的外部就可以利用各个集群的数据对模型进行训练,从而保护了各个集群上的数据隐私以防止数据泄密。

    文本标注方法和装置、计算机设备及存储介质

    公开(公告)号:CN117540730A

    公开(公告)日:2024-02-09

    申请号:CN202311316116.1

    申请日:2023-10-10

    Abstract: 本申请实施例提供了一种文本标注方法和装置、计算机设备及存储介质,属于人工智能技术领域。该方法包括:获取原始文本和原始标注信息;对原始文本分类得到自动标注信息;接收由标注端对原始文本扩展得到同义文本,根据自动标注信息对同义文本筛选的扩展文本;将扩展文本和原始文本拼接得到候选文本,将自动标注信息和原始标注信息拼接得到候选标注信息;获取候选文本中候选标注信息的标注类别数量;根据标注类别数量对候选标注信息筛选得到目标标注信息;获取目标标注信息的标注比例;若标注比例低于预设比例阈值,生成反馈信息至专家系统以接收专家标注信息;将专家标注信息和候选文本组合得到目标文本数据。本申请实施例能够提高文本标注质量。

    模型溯源方法、装置、设备及存储介质

    公开(公告)号:CN117390598A

    公开(公告)日:2024-01-12

    申请号:CN202311399658.X

    申请日:2023-10-25

    Abstract: 本发明公开了一种模型溯源方法、装置、设备及存储介质。该方法包括:获取源模型对应的训练数据;根据所述训练数据确定所述源模型对应的源模型DNA以及目标模型对应的目标模型DNA;基于所述源模型DNA和所述目标模型DNA确定组合DNA;将所述组合DNA输入至预设判别器模型,根据所述预设判别器模型输出的判别结果确定模型溯源结果。由于本发明是通过源模型对应的源模型DNA以及目标模型对应的目标模型DNA确定组合DNA,将组合DNA输入至预设判别器模型,得到模型溯源结果。本发明首次引入了机器学习模型DNA的概念。可以实现对模型的追溯,以追踪模型的来源。这有助于确保模型的可信度和安全性。

    基于深度学习的SCMA检测方法及相关设备

    公开(公告)号:CN116318572A

    公开(公告)日:2023-06-23

    申请号:CN202211102289.9

    申请日:2022-09-09

    Abstract: 本发明公开了一种基于深度学习的SCMA检测方法、装置、智能终端及计算机存储介质,上述基于深度学习的SCMA检测方法包括:根据信道信息对接收信号进行预处理,以消除幅值和相位失真;根据预处理后的接收信号获得信道子网络的输入信号,通过所述信道子网络,将所述输入信号进行数据转化,再将多个信道子网络的输出信号进行拼接,获得拼接信号;通过硬参数共享,根据预设神经网络模型对拼接信号进行检测,获得输入数据符号。与现有技术中相比,本发明降低了模型复杂度,提高了检测效率。

    一种支持异构集群下的模型并行训练方法及相关设备

    公开(公告)号:CN115471394A

    公开(公告)日:2022-12-13

    申请号:CN202211156400.2

    申请日:2022-09-22

    Abstract: 本发明公开了一种支持异构集群下的模型并行训练方法及相关设备,所述方法包括:各个集群根据自己的框架编写好代码,然后在各自的框架上训练一部分数据,接着先在集群内部进行模型拼接,把模型并行切分到多张卡的模型参数合并成一个完整的模型,不同集群的拼接后得到的模型是一致的,然后将拼接完的模型参数进行分片传输到参数服务器,参数服务器对模型参数进行融合,接着参数服务器将融合后的模型下发到各个集群,最后各个分集群将收到的模型按照各自的模型并行训练策略进行模型并行切分后训练;本发明实现了用户隐私保护、数据安全、大模型并行训练和大模型传输,能整合不同计算中心资源,满足了异构框架,异构集群共同训练大模型的需求。

Patent Agency Ranking