时序数据压缩方法、解压缩方法、装置、设备及介质

    公开(公告)号:CN119543953A

    公开(公告)日:2025-02-28

    申请号:CN202411515585.0

    申请日:2024-10-28

    Abstract: 本申请实施例适用于数据处理技术领域,提供了一种时序数据压缩方法、解压缩方法、装置、设备及介质,所述方法包括:获取时序数据数组,时序数据数组中包括多个按时间顺序排列的时序数据;对每个时序数据与时序数据的前一时序数据进行异或运算,得到每个时序数据对应的异或值;根据每个异或值中的前导零数量和有效位长度,确定时序数据数组的报头数据,报头数据用于在对时序数据进行压缩时,确定时序数据的前导零数量与有效位长度的表征方式;基于报头数据,对每个时序数据进行压缩;将报头数据和每个时序数据对应的压缩数据组合为时序数据数组的压缩数据数组。通过上述方法,在对时序数据进行数据压缩时,能够提高压缩比。

    面向检索增强生成系统的错误定位方法、电子设备、介质

    公开(公告)号:CN119474276B

    公开(公告)日:2025-05-13

    申请号:CN202510027118.1

    申请日:2025-01-08

    Applicant: 浙江大学

    Abstract: 本发明公开了一种面向检索增强生成系统的错误定位方法、电子设备、介质,包括:获取检索增强生成系统的中间执行结果,包括:用户问题、原始检索相关文档、模型响应、标准答案;将原始检索相关文档插入第一提示词模板中,输入至第一大语言模型,提取原始检索事实三元组;将所有原始检索事实三元组插入第二提示词模板中,输入至第二大语言模型,判断所有原始检索事实三元组能否推导答案以回答用户问题;若能推导答案,则判定检索增强生成系统中的检索器正常;反之,则判定检索器异常;将用户问题、模型响应、标准答案、原始检索事实三元组输入至第三大语言模型中,判定模型响应的准确完整性,从而判断检索增强生成系统中的大语言模型是否异常。

    一种基于大语言模型和知识图谱的多模态问答方法

    公开(公告)号:CN119377353A

    公开(公告)日:2025-01-28

    申请号:CN202411417069.4

    申请日:2024-10-11

    Applicant: 浙江大学

    Abstract: 本发明公开了一种基于大语言模型和知识图谱的多模态问答方法,属于人工智能及知识图谱技术领域。针对现有问答系统中多模态信息处理不充分、语义理解深度不足及跨模态推理能力有限等问题,本发明提出了一种多模态问答引擎,通过为多模态数据构建多模态知识图谱,建立模态内部以及模态之间的语义关联网络,并为知识图谱的实体、关系等元素生成索引,以支持后续的高效检索。通过对知识图谱进行结构化信息检索,结合大型语言模型强大的自然语言理解能力和特定模态问答模型的能力,提高了信息检索的效率与准确性,增强了跨模态推理能力,从而实现在复杂多模态环境下的高效精准问答。

    一种基于LSM-Tree的KV存储系统、电子设备、介质

    公开(公告)号:CN117349235A

    公开(公告)日:2024-01-05

    申请号:CN202311418655.6

    申请日:2023-10-30

    Applicant: 浙江大学

    Abstract: 本发明公开了一种基于LSM‑Tree的KV存储系统、电子设备、介质,包括:易失性内存,用于缓存新写入的数据并查找新写入的数据;持久化内存,包括多布谷鸟过滤器用于索引全局数据;所述多布谷鸟过滤器包括若干个布谷鸟过滤器,每一布谷鸟过滤器中包含由一张哈希表,哈希表表内有若干个哈希桶,每个哈希桶内有4个哈希槽,每个哈希槽的大小为64个字节,其中高32字节用于存储键值对中键的指纹,低32字节用于存储相应键值对所在的文件编号;磁盘,所述磁盘使用单层文件结构以持久化键值对数据,并存储数据日志以及系统日志;其中,单层文件结构基于文件之间的重合度将重合重程度最高的若干个文件在下一轮合并操作中被合并。

    基于声明式推理的协同查询处理方法、系统、电子设备

    公开(公告)号:CN116628136A

    公开(公告)日:2023-08-22

    申请号:CN202310660570.2

    申请日:2023-06-05

    Applicant: 浙江大学

    Abstract: 本发明公开了基于声明式推理的协同查询处理方法、系统、电子设备,包括:步骤S1,将查询文本输入至语法分析器得到语法分析树,进而利用关系代数运算符替换语法分析树中的节点和结构,产生关系代数表达式,并利用代数定律进行等价转化,得到逻辑查询计划;步骤S2,将逻辑查询计划转换为中间查询计划;包括:基于类别约束和精度约束为逻辑查询计划中的DIF查找代价最小的NN模型;步骤S3,将中间查询计划转换成物理查询计划;包括:通过确定实现DIF的NN模型的运行方式为中间查询计划中的每个算子选择实现方式,以获取代价最低的物理查询计划。

    基于浅层特征预训练的联邦学习大模型进行文本分类的方法

    公开(公告)号:CN116522220A

    公开(公告)日:2023-08-01

    申请号:CN202310401602.7

    申请日:2023-04-07

    Applicant: 浙江大学

    Abstract: 本发明公开了一种基于浅层特征预训练的联邦学习大模型进行文本分类的方法,包括:服务端获取全局模型;客户端获取全局模型的初始参数,并根据全局模型的初始参数和服务端指定的待训练的处理层编号l构建本地模型,对本地模型进行训练;客户端将更新的第l层处理层的参数以及输出层参数上传至服务端进行聚合,得到更新的参数,更新服务端的全局模型,并将更新的参数下发给各个客户端进行新一轮的联邦学习训练;客户端从服务端得到更新的参数和服务端新指定的待训练的处理层编号l',重复进行联邦学习;完成联邦学习后,服务端使用各个客户端聚合得到的参数替换全局模型的对应参数,得到进一步预训练好的全局模型,微调后进行专业领域的文本分类。

Patent Agency Ranking