一种针对快速变异信息的小样本电信反欺诈方法和装置

    公开(公告)号:CN119130492A

    公开(公告)日:2024-12-13

    申请号:CN202411234924.8

    申请日:2024-09-04

    Abstract: 一种针对快速变异信息的小样本电信反欺诈方法和装置,其方法包括:利用通用大模型构建特征抽取器;利用新数据收集支撑数据集;利用通用大模型收集支撑数据集的特征向量;获取支撑数据集的表征向量表达,组装特征矩阵;训练扩展小模型以适配新的数据风险。本发明首先收集小样本的支持数据集,通常为几条至几十条不等,然后利用超大规模语言模型对支撑文本进行数值特征转换,保留文本语义的同时降低大样本的需求;接着在支撑文本的样例空间进行降维,保留对新风险识别精度最大贡献的维度,最后在新特征空间中训练小模型完成新风险的识别。本发明针对快速变异的电信反欺诈识别问题,提供一种可持续发展的可快速迭代的小样本电信欺诈风险识别方法。

    一种基于正则化的在线指数凹优化方法

    公开(公告)号:CN116842708A

    公开(公告)日:2023-10-03

    申请号:CN202310718754.X

    申请日:2023-06-16

    Applicant: 浙江大学

    Abstract: 一种基于正则化的在线指数凹优化方法,包含:步骤1.收集公开数据集,对数据集进行数据清洗和分析;步骤2.对参数进行初始化设置;分别对四个参数进行初始化设置;步骤3.对获得的在线数据,根据学习到的模型给出决策,然后获得本轮基于真实标签与决策差异的损失;步骤4.根据损失函数信息做决策更新;决策更新主要分成两个部分:对每个损失函数中的指数凹部分执行ONS迭代、对正则化部分使用近端映射;步骤5.记录本轮学习到的参数,基于此得到一个模型,该模型用于步骤3中,然后重复步骤3和步骤4,对参数不断进行学习和更新,直至完成T轮博弈。本发明有能力利用的指数凹性来实现与ONS相同的遗憾界并达到正则化的效果。

    锆酸镧多孔块体的制备方法

    公开(公告)号:CN104478464B

    公开(公告)日:2016-08-17

    申请号:CN201410781565.8

    申请日:2014-12-16

    Applicant: 浙江大学

    Abstract: 本发明公开了一种锆酸镧多孔块体的制备方法,包括以下步骤:在室温下,分别将锆无机盐、镧无机盐和相分离诱导剂溶解在溶剂中,搅拌至得透明澄清溶液;然后加入干燥控制化学添加剂搅拌;再加入凝胶促进剂搅拌;所得的均质溶液放入密封容器中,于30℃~80℃放置10~30min,得湿凝胶;将湿凝胶置于35~80℃下陈化12~24h,接着先用低表面张力溶剂清洗后再用表面修饰剂溶液浸泡,最后再用低表面张力溶剂清洗;清洗后湿凝胶于30~90℃干燥24~72h;然后于400~1300℃热处理2~4h,得到锆酸镧多孔块体。采用该方法制备的锆酸镧多孔块体具有共连续大孔结构,孔隙率高和孔径分布集中等特点。

    基于预训练语言模型的中文唇语识别提升方法与装置

    公开(公告)号:CN119446144A

    公开(公告)日:2025-02-14

    申请号:CN202411356079.1

    申请日:2024-09-27

    Applicant: 浙江大学

    Abstract: 基于预训练语言模型的中文唇语识别提升方法和装置,其方法包括:构建纠错数据集,通过同音词增强和混淆矩阵数据增强方法拓展数据集规模;对纠错数据集进行预处理,通过分词模型将字符映射为对应的令牌,然后再通过嵌入层映射为词嵌入。通过预训练语言模型对纠错句子进行特征提取;预训练语言模型输出的特征通过线性错误预测层输出错误字符的位置,线性错误纠正层对错误字符进行纠正;基于错误检测损失函数和错误纠正损失函数训练纠错网络,并且在训练过程中使用填充策略提升模型的纠错准确率;基于训练好的唇语纠错网络对唇语识别结果进行改善。本发明有效地降低了自回归和非自回归模型的字符错误率,并且易于迁移到其他模型。

    基于预训练模型参数融合的模型微调方法

    公开(公告)号:CN119005277A

    公开(公告)日:2024-11-22

    申请号:CN202410989398.X

    申请日:2024-07-23

    Applicant: 浙江大学

    Abstract: 基于预训练模型参数融合的模型微调方法,包括以下步骤:1)选择是否采用现有的参数融合算法,若是,则跳转至步骤2,否则随机生成线性组合权重p并跳转至步骤3;2)通过该参数融合算法对预训练模型A与预训练模型B进行参数融合,并根据公式m=pa+b逆向推导出p,其中a和b分别代表两个预训练模型的参数,p为线性组合权重,m为融合后模型的参数;3)通过p构建出模型P,并对P进行优化;4)通过公式m=pa+b对两个预训练模型进行合并,得到模型M;5)对模型M进行微调。利用神经网络的学习能力获取最优的模型参数组合,尽可能消除两个模型之间的损失障碍,从而使模型在后续的微调中表现出更加优秀的性能。本方法克服了传统方法中条件过于理想,而在实际合并过程中很难达到理想状态的问题,从而更有效地消除了两个待合并模型之间的损失障碍,让合并后的模型在经过微调后的效果更加优秀。

    一种基于区块链的深度神经网络模型联邦重组方法及系统

    公开(公告)号:CN116450738A

    公开(公告)日:2023-07-18

    申请号:CN202310378980.8

    申请日:2023-04-11

    Applicant: 浙江大学

    Abstract: 基于区块链的深度神经网络模型联邦重组方法,包括:构建模型联邦重组的联盟链;设置模型联邦重组的智能合约;存储模型联邦重组过程中的数据;训练模型训练方的源模型,交由模型重组验证方进行联邦重组;模型联邦重组,模型重组验证方对源模型进行联邦重组,进而得到目标模型;计算模型训练方的贡献值。本发明还包括基于区块链的深度神经网络模型联邦重组的系统。本发明考虑到深度神经网络模型的可复用性已经单节点用户模型重组时的算力和数据的有限性,则进行多节点模型联邦重组。同时考虑联邦过程中的数据安全性及私密性,以及联邦中多节点之间合作的互不信任,建立基于Hyperledger Fabric的联盟链及智能合约,提供一种多节点安全与可信合作的方法。

Patent Agency Ranking