-
公开(公告)号:CN119543953A
公开(公告)日:2025-02-28
申请号:CN202411515585.0
申请日:2024-10-28
Applicant: 杭州高新区(滨江)区块链与数据安全研究院 , 浙江大学
IPC: H03M7/30
Abstract: 本申请实施例适用于数据处理技术领域,提供了一种时序数据压缩方法、解压缩方法、装置、设备及介质,所述方法包括:获取时序数据数组,时序数据数组中包括多个按时间顺序排列的时序数据;对每个时序数据与时序数据的前一时序数据进行异或运算,得到每个时序数据对应的异或值;根据每个异或值中的前导零数量和有效位长度,确定时序数据数组的报头数据,报头数据用于在对时序数据进行压缩时,确定时序数据的前导零数量与有效位长度的表征方式;基于报头数据,对每个时序数据进行压缩;将报头数据和每个时序数据对应的压缩数据组合为时序数据数组的压缩数据数组。通过上述方法,在对时序数据进行数据压缩时,能够提高压缩比。
-
公开(公告)号:CN118503435A
公开(公告)日:2024-08-16
申请号:CN202410977333.3
申请日:2024-07-22
Applicant: 浙江大学 , 杭州高新区(滨江)区块链与数据安全研究院
IPC: G06F16/35 , G06F18/214 , G06N3/045 , G06N3/0495 , G06N3/084 , G06N3/0895 , G06N3/096 , G06N3/0455
Abstract: 本发明公开了一种基于知识融合的多未知领域文本分类方法、设备、介质,包括:基于预先训练好的n个教师模型构建2n‑1个教师模型组合;对每一个仅包含一个教师模型的教师模型组合进行第一采样,得到训练好的学生模型及其分类准确率,将教师模型组合‑分类准确率数据对作为初始的观测信息;基于当前的观测信息选择教师模型组合;若被选择的教师模型组合为已被采样的教师模型组合,则将观测信息中最大分类准确率对应的学生模型作为文本分类模型;若被选择的教师模型组合为没有被采样且包含两个及以上教师模型时,对该教师模型组合进行第二采样,得到训练好的学生模型及其分类准确率,更新观测信息;通过文本分类模型确定待分类文本的分类结果。
-
公开(公告)号:CN118503435B
公开(公告)日:2024-10-11
申请号:CN202410977333.3
申请日:2024-07-22
Applicant: 浙江大学 , 杭州高新区(滨江)区块链与数据安全研究院
IPC: G06F16/35 , G06F18/214 , G06N3/045 , G06N3/0495 , G06N3/084 , G06N3/0895 , G06N3/096 , G06N3/0455
Abstract: 本发明公开了一种基于知识融合的多未知领域文本分类方法、设备、介质,包括:基于预先训练好的n个教师模型构建2n‑1个教师模型组合;对每一个仅包含一个教师模型的教师模型组合进行第一采样,得到训练好的学生模型及其分类准确率,将教师模型组合‑分类准确率数据对作为初始的观测信息;基于当前的观测信息选择教师模型组合;若被选择的教师模型组合为已被采样的教师模型组合,则将观测信息中最大分类准确率对应的学生模型作为文本分类模型;若被选择的教师模型组合为没有被采样且包含两个及以上教师模型时,对该教师模型组合进行第二采样,得到训练好的学生模型及其分类准确率,更新观测信息;通过文本分类模型确定待分类文本的分类结果。
-
公开(公告)号:CN119621511A
公开(公告)日:2025-03-14
申请号:CN202411766273.7
申请日:2024-12-04
Applicant: 杭州高新区(滨江)区块链与数据安全研究院 , 浙江大学
Abstract: 本申请涉及一种分布式服务的性能剖析方法、系统和存储介质,其中,分布式服务包括多个工作节点,且各工作节点分别部署有本地剖析器;该性能剖析方法包括:接收各本地剖析器采集的针对工作节点上的堆栈跟踪数据,并对堆栈跟踪数据进行聚合处理,得到聚合堆栈数据;根据聚合堆栈数据生成目标火焰图,并基于目标火焰图生成针对分布式服务的目标性能剖析结果。通过本申请,解决了性能剖析难以适应大规模分布式服务的问题。
-
公开(公告)号:CN119474276B
公开(公告)日:2025-05-13
申请号:CN202510027118.1
申请日:2025-01-08
Applicant: 浙江大学
IPC: G06F16/332 , G06F16/33 , G06N5/04 , G06N5/022
Abstract: 本发明公开了一种面向检索增强生成系统的错误定位方法、电子设备、介质,包括:获取检索增强生成系统的中间执行结果,包括:用户问题、原始检索相关文档、模型响应、标准答案;将原始检索相关文档插入第一提示词模板中,输入至第一大语言模型,提取原始检索事实三元组;将所有原始检索事实三元组插入第二提示词模板中,输入至第二大语言模型,判断所有原始检索事实三元组能否推导答案以回答用户问题;若能推导答案,则判定检索增强生成系统中的检索器正常;反之,则判定检索器异常;将用户问题、模型响应、标准答案、原始检索事实三元组输入至第三大语言模型中,判定模型响应的准确完整性,从而判断检索增强生成系统中的大语言模型是否异常。
-
公开(公告)号:CN119377353A
公开(公告)日:2025-01-28
申请号:CN202411417069.4
申请日:2024-10-11
Applicant: 浙江大学
IPC: G06F16/332 , G06F16/36 , G06N5/025
Abstract: 本发明公开了一种基于大语言模型和知识图谱的多模态问答方法,属于人工智能及知识图谱技术领域。针对现有问答系统中多模态信息处理不充分、语义理解深度不足及跨模态推理能力有限等问题,本发明提出了一种多模态问答引擎,通过为多模态数据构建多模态知识图谱,建立模态内部以及模态之间的语义关联网络,并为知识图谱的实体、关系等元素生成索引,以支持后续的高效检索。通过对知识图谱进行结构化信息检索,结合大型语言模型强大的自然语言理解能力和特定模态问答模型的能力,提高了信息检索的效率与准确性,增强了跨模态推理能力,从而实现在复杂多模态环境下的高效精准问答。
-
公开(公告)号:CN117349235A
公开(公告)日:2024-01-05
申请号:CN202311418655.6
申请日:2023-10-30
Applicant: 浙江大学
Abstract: 本发明公开了一种基于LSM‑Tree的KV存储系统、电子设备、介质,包括:易失性内存,用于缓存新写入的数据并查找新写入的数据;持久化内存,包括多布谷鸟过滤器用于索引全局数据;所述多布谷鸟过滤器包括若干个布谷鸟过滤器,每一布谷鸟过滤器中包含由一张哈希表,哈希表表内有若干个哈希桶,每个哈希桶内有4个哈希槽,每个哈希槽的大小为64个字节,其中高32字节用于存储键值对中键的指纹,低32字节用于存储相应键值对所在的文件编号;磁盘,所述磁盘使用单层文件结构以持久化键值对数据,并存储数据日志以及系统日志;其中,单层文件结构基于文件之间的重合度将重合重程度最高的若干个文件在下一轮合并操作中被合并。
-
公开(公告)号:CN116628136A
公开(公告)日:2023-08-22
申请号:CN202310660570.2
申请日:2023-06-05
Applicant: 浙江大学
IPC: G06F16/33 , G06F16/35 , G06F40/253 , G06F16/332 , G06N5/04 , G06N3/02
Abstract: 本发明公开了基于声明式推理的协同查询处理方法、系统、电子设备,包括:步骤S1,将查询文本输入至语法分析器得到语法分析树,进而利用关系代数运算符替换语法分析树中的节点和结构,产生关系代数表达式,并利用代数定律进行等价转化,得到逻辑查询计划;步骤S2,将逻辑查询计划转换为中间查询计划;包括:基于类别约束和精度约束为逻辑查询计划中的DIF查找代价最小的NN模型;步骤S3,将中间查询计划转换成物理查询计划;包括:通过确定实现DIF的NN模型的运行方式为中间查询计划中的每个算子选择实现方式,以获取代价最低的物理查询计划。
-
公开(公告)号:CN116737864A
公开(公告)日:2023-09-12
申请号:CN202310379689.2
申请日:2023-04-11
Applicant: 浙江大学
Abstract: 本发明公开了一种云端多预训练语言模型管理和推断方法、电子设备,包括通过分发器接收租户发出的模型管理请求和推断请求;其中,模型管理请求具体为租户发起一模型管理请求以改变vBert模型实例树的内容和结构;通过管理器构建并维护浅层特征查找表,更新vBert模型实例树;通过调度器采用流水线的方式调度并且处理模型管理请求和推断请求。
-
公开(公告)号:CN116522220A
公开(公告)日:2023-08-01
申请号:CN202310401602.7
申请日:2023-04-07
Applicant: 浙江大学
IPC: G06F18/241 , G06F18/214 , G06N20/00 , G06F40/289
Abstract: 本发明公开了一种基于浅层特征预训练的联邦学习大模型进行文本分类的方法,包括:服务端获取全局模型;客户端获取全局模型的初始参数,并根据全局模型的初始参数和服务端指定的待训练的处理层编号l构建本地模型,对本地模型进行训练;客户端将更新的第l层处理层的参数以及输出层参数上传至服务端进行聚合,得到更新的参数,更新服务端的全局模型,并将更新的参数下发给各个客户端进行新一轮的联邦学习训练;客户端从服务端得到更新的参数和服务端新指定的待训练的处理层编号l',重复进行联邦学习;完成联邦学习后,服务端使用各个客户端聚合得到的参数替换全局模型的对应参数,得到进一步预训练好的全局模型,微调后进行专业领域的文本分类。
-
-
-
-
-
-
-
-
-