车辆的紧急制动控制方法、装置、存储介质及电子设备

    公开(公告)号:CN117465392A

    公开(公告)日:2024-01-30

    申请号:CN202311706996.3

    申请日:2023-12-12

    Abstract: 本申请公开了一种车辆的紧急制动控制方法、装置、存储介质及电子设备,该方法包括:响应于车端发送的配置参与指令,确定车辆信息,其中,配置参与指令为车辆在目标路段行驶时,通过路侧设备对车辆进行控制的指令;根据车辆信息识别车辆是否需要采取紧急制动;在识别到车辆需要采取紧急制动的情况下,通过预设通信接口将车辆制动信息下发至车端,以使车端按照车辆制动信息对车辆进行控制。通过本申请,解决了相关技术中车辆受到自身系统配置或者外界干扰的影响,导致自动制动性能精度降低的问题。

    一种基于模型分割的大模型隐私保护推理方法

    公开(公告)号:CN117313869A

    公开(公告)日:2023-12-29

    申请号:CN202311418709.9

    申请日:2023-10-30

    Applicant: 浙江大学

    Abstract: 本发明公开了一种基于模型分割的大模型隐私保护推理方法,属于计算机人工智能和大模型安全技术领域。通过模型分割:将原始大模型的Encoder和Decoder部署在客户端,大模型的中间部分留在服务端本地;模型压缩:通过服务器端将中间层压缩后发送至客户端,并在客户端组成一个具有原始大模型基本功能的小模型;模型微调:客户端通过损失函数微调模型;模型推理:客户端将训练好的Encoder按协议发送至服务器端,推理得到中间结果,再与本地服务器端的Decoder结合完成训练。本发明兼顾了模型性能和隐私保护,有效的防范了重建攻击,且对于模型的效果没有负面影响;同时防止了大模型的模型隐私泄露和用户的数据泄露,计算效率高,在客户端不需要大量的计算资源。

    一种信息保护增强的带标签隐私集合求交方法

    公开(公告)号:CN116341000A

    公开(公告)日:2023-06-27

    申请号:CN202310248692.0

    申请日:2023-03-13

    Applicant: 浙江大学

    Abstract: 本发明公开了一种信息保护增强的带标签隐私集合求交方法,涉及隐私计算技术领域,该方法由数据需求方发起,并与一个数据及其标签的持有方共同执行,所述方法包括:参与双方采用椭圆曲线上的求逆迪菲赫尔曼密钥协商协议变种,加入数据乱序操作,获得匿踪后的匹配数据下标;数据需求方采用乱序操作的逆过程,还原出交集原始数据下标;双方执行不经意传输协议,数据需求方获取交集数据对应的标签。该方法能够筛选出符合某些特性的数据标签信息,而不对参与方泄露参与求交的任何数据,能够保持标签以外数据的私密性。

    一种基于神经元重要性的神经网络选择性遗忘学习方法

    公开(公告)号:CN120012871A

    公开(公告)日:2025-05-16

    申请号:CN202510496214.0

    申请日:2025-04-21

    Applicant: 浙江大学

    Inventor: 蒋琴 秦湛 任奎

    Abstract: 本发明公开了一种基于神经元重要性的神经网络选择性遗忘学习方法,该方法包括神经元重要性评估、参数掩码的生成、随机标签遗忘过程和模型微调,具体为:将模型对遗忘样本的记忆值分配到神经元中,以评估神经元对遗忘数据集的重要性;并将记忆值大于特定阈值的神经元掩码设置为1,反之掩码设置为0;随机设置遗忘数据集中样本的标签,使用随机梯度下降方法更新掩码为1的神经元参数;最后使用保留数据集对模型参数进行全局微调,得到最终的遗忘模型。本发明提出一种面向图像分类任务的神经元粒度的选择性遗忘学习方法,通过在卷积神经网络中实现特征层级的遗忘,保证遗忘效果和原始任务性能的同时,缩减了近似遗忘和精确遗忘之间的差距。

    一种深度神经网络模型指纹鲁棒性评估方法

    公开(公告)号:CN117115866B

    公开(公告)日:2025-04-25

    申请号:CN202311144816.7

    申请日:2023-09-05

    Applicant: 浙江大学

    Inventor: 姚宏伟 秦湛 任奎

    Abstract: 本发明公开了一种深度神经网络模型指纹鲁棒性评估方法,包括:模拟攻击者获取目标模型Fv和用于微调的替代数据集Dsub;基于min‑max的双层优化算法,逆向出所述目标模型Fv的前面l层和logistic层,分别添加行为模式扰动,得到逆向后的前面l层的输出z1和logistic层的输出z2,并基于所述逆向后的前面l层的输出z1和logistic层的输出z2进行模型调优,得到替代模型Fs;根据所述目标模型和替代模型,定量和定性评估深度神经网络指纹清除的代价,并输出深度神经网络指纹鲁棒性评分。

    一种数据处理方法、装置及设备
    26.
    发明公开

    公开(公告)号:CN119848834A

    公开(公告)日:2025-04-18

    申请号:CN202411997927.7

    申请日:2024-12-31

    Abstract: 本说明书实施例提供了一种数据处理方法、装置及设备,其中,方法包括:接收针对目标用户的风险检测请求;响应于所述风险检测请求,获取包含所述目标用户的操作行为的日志数据;基于所述日志数据中包含的所述目标用户的操作行为,确定目标图结构数据,所述目标图结构数据包含根据所述操作行为确定的目标节点,以及根据所述操作行为之间的逻辑关系确定的节点之间的边;对所述目标图结构数据进行特征提取处理,得到所述目标图结构数据对应的目标图嵌入向量,并对所述日志数据进行关键信息提取处理,得到目标信息;根据大语言模型,基于所述目标图嵌入向量和所述目标信息,确定所述目标用户是否为风险用户。

    一种基于非决策域方法的模型水印方法及装置

    公开(公告)号:CN118134740A

    公开(公告)日:2024-06-04

    申请号:CN202410553090.0

    申请日:2024-05-07

    Applicant: 浙江大学

    Abstract: 本发明公开了一种基于非决策域方法的模型水印方法及装置,根据选择的待嵌入的水印#imgabs0#和水印提取密钥并使用可解释性方法定义待训练模型的损失函数,通过损失函数对待训练模型进行优化,得到优化后的模型;随后将待嵌入的水印嵌入到优化后的模型中,得到嵌入水印的模型;利用水印提取密钥通过可解释性方法从嵌入水印的模型中提取水印#imgabs1#;将提取出的水印#imgabs2#与待嵌入的水印#imgabs3#进行比对,确定版权归属。本申请针对传统基于后门的黑盒模型版权认证方法对模型有害、不包含任何信息和易被攻击者伪造的缺点,巧妙地采用非决策域方法,不影响模型的预测结果,能够有效地保护各类人工智能模型的版权,实现无害化、多比特、不易伪造的模型版权认证方案。

    一种基于网络补丁的神经网络遗忘学习方法及装置

    公开(公告)号:CN117933322A

    公开(公告)日:2024-04-26

    申请号:CN202311835375.5

    申请日:2023-12-28

    Abstract: 本发明公开一种基于网络补丁的神经网络遗忘学习方法,包括:S1、获取原始模型的原始数据集,并通过随机采样构建对应的遗忘数据集;S2、基于所述遗忘数据构建对应的补丁网络;S3、基于所述补丁网络与所述原始模型,合成对应的遗忘模型;S4、将多个中心数据点输入至原始模型和遗忘模型中,以获取相似数据点集;S5、以所述相似数据点集替换为新的遗忘数据集,以S3构建获得的遗忘模型作为下一轮的原始模型;S6、重复S2至S5,直至S4中的相似数据点集为空集,以获得与原始模型性能一致的替换模型。本发明还提供了一种神经网络遗忘学习装置。本发明提供的方法能减轻剩余数据对模型性能的影响,以满足数据持有者和模型所有者的需求。

    基于特征一致性的联邦学习攻击检测方法、系统及装置

    公开(公告)号:CN117892340A

    公开(公告)日:2024-04-16

    申请号:CN202311835568.0

    申请日:2023-12-27

    Abstract: 本发明公开一种基于特征一致性的联邦学习攻击检测方法、系统及装置,方法包括:基于提取符号向量、排序向量、分类器向量及特征提取器向量;进行局部一致性检测,得到局部异常分数,判断与预设局部一致性分数阈值的关系,得到客户端局部检测结果;进行任务一致性检测,得到任务相似性分数,判断与预设任务一致性条件的关系,得到客户端任务检测结果;获取特征提取器向量的数据一致性,判断数据域距离与预设数据一致性条件的关系,得到客户端数据检测结果;剔除恶意客户端,通过良性客户端对客户端梯度更新进行分析处理。本发明方法对梯度更新特征进行分析,解决了现有联邦学习攻击检测方法中检测种类单一且联邦学习所得全局模型准确性降低的问题。

    一种基于模型分割的大模型隐私保护推理方法

    公开(公告)号:CN117313869B

    公开(公告)日:2024-04-05

    申请号:CN202311418709.9

    申请日:2023-10-30

    Applicant: 浙江大学

    Abstract: 本发明公开了一种基于模型分割的大模型隐私保护推理方法,属于计算机人工智能和大模型安全技术领域。通过模型分割:将原始大模型的Encoder和Decoder部署在客户端,大模型的中间部分留在服务端本地;模型压缩:通过服务器端将中间层压缩后发送至客户端,并在客户端组成一个具有原始大模型基本功能的小模型;模型微调:客户端通过损失函数微调模型;模型推理:客户端将训练好的Encoder按协议发送至服务器端,推理得到中间结果,再与本地服务器端的Decoder结合完成训练。本发明兼顾了模型性能和隐私保护,有效的防范了重建攻击,且对于模型的效果没有负面影响;同时防止了大模型的模型隐私泄露和用户的数据泄露,计算效率高,在客户端不需要大量的计算资源。

Patent Agency Ranking