-
公开(公告)号:CN112751673B
公开(公告)日:2021-06-25
申请号:CN202110361878.8
申请日:2021-04-02
Applicant: 之江实验室
Abstract: 本发明公开了一种基于端边云协同的可监管数据隐私共享方法,针对端边云场景下的数据隐私共享和监管,包括:基于对称密钥加密的数据云存储和元数据的产生,基于联盟链的分布式密钥的元数据的上链,基于可搜索加密的数据监管,监管的方式包括:信封监管和拆封监管等两种粒度的监管方式,信封监管在所有节点共识的情况下,确认用户是否在某个时间内提交元数据的存储凭证;拆封监管则获取用户的元数据存储凭证,对存储的数据进行解密并获取数据明文;区块链系统用于对用户的隐私数据存证,保护数据隐私不被泄露,同时实现对数据隐私共享条件下监管。
-
公开(公告)号:CN110851255A
公开(公告)日:2020-02-28
申请号:CN201911080332.4
申请日:2019-11-07
Applicant: 之江实验室
IPC: G06F9/48 , G06N3/02 , H04N21/234 , H04N21/44
Abstract: 本发明公开一种基于终端设备和边缘服务器协同进行视频流处理的方法,所述的视频流处理划分为数据预处理、深度神经网络推理和结果处理三个阶段,终端设备的计算任务分为数据预处理TP、数据传输TD_t、神经网络推理TI、结果接收TR_r和结果处理TF,边缘服务器的计算任务分为数据接收ED_r、深度神经网络推理EI,结果传输ER_t,所述的视频预处理采用流水化方式进行任务调度,终端设备按照任务优先级,根据空闲状态执行计算任务,边缘服务器也根据任务优先级的顺序执行;其中,终端设备承担任务的优先级从高到低排序为:TR_r>TD_t>TF>TP=TI;边缘服务器承担任务的优先级从高到低排序为:ED_r>EI>ER_t。该方法在发挥边缘服务器强大算力的同时,提高了计算效率。
-
公开(公告)号:CN113342458B
公开(公告)日:2024-07-09
申请号:CN202110476378.9
申请日:2021-04-29
Applicant: 之江实验室
Abstract: 本发明涉及边缘计算领域,尤其是涉及了一种基于容器云的云边协同海量设备和业务批量控制方法,采用打标签分类的方式,对不同的设备和业务进行控制分类,将边缘侧海量的具有计算能力的设备以节点的形式,纳管到容器云集群中,用户在容器云集群中,对设备进行控制和分类,当需要在海量设备中按需求部署业务时,可以通过标签的形式,在某一类设备上进行业务的快速部署,同时,对于海量业务,用户也可以在容器云集群中进行控制和分类,当需要对海量的业务按照需求进行升级时,也可以通过标签的形式,对某一类业务进行快速的升级。本发明方案满足了用户对海量设备海量业务进行控制和维护的需求,大大提升了控制和维护的效率。
-
公开(公告)号:CN118036668A
公开(公告)日:2024-05-14
申请号:CN202410443128.9
申请日:2024-04-12
Applicant: 之江实验室
IPC: G06N3/0455 , G06N3/08 , G06N5/04
Abstract: 本说明书公开了一种面向GPT模型的综合评测方法,获取待测GPT模型,确定所述待测GPT模型的训练推理环境,根据所述训练推理环境,确定所述待测GPT模型的理论性能,利用所述待测GPT模型执行各测试任务,根据所述待测GPT模型执行各测试任务的执行过程以及所述理论性能,确定所述待测GPT模型执行各测试任务时的执行性能,并,根据所述待测GPT模型执行各测试任务的推理结果,确定所述待测GPT模型的推理能力,根据所述执行性能以及所述推理能力,确定所述待测GPT模型的测试结果,可使用户在不进行模型训练的情况下,对不同的GPT模型的性能与能力拥有更清晰、直观的了解,方便用户选择GPT模型以满足自身需要。
-
公开(公告)号:CN117891600A
公开(公告)日:2024-04-16
申请号:CN202410044115.4
申请日:2024-01-11
Applicant: 之江实验室
Abstract: 本说明书公开了一种任务调度的方法、装置、存储介质及电子设备,包括:确定待执行任务,并对待执行任务进行拆分,得到各子任务。根据各子任务,生成子任务队列。采用预设的初始调度方法,将子任务队列中的各子任务调度到对应的处理器上执行。在各处理器执行各子任务的过程中,实时确定各处理器的剩余资源,并针对每个处理器,当该处理器满足指定条件时,将已调度给其他处理器但尚未执行的子任务调度到该处理器上执行,从而避免空闲处理器长时间的等待,造成资源的浪费,以及避免堵塞处理器中的子任务长时间的等待。同时,提高处理器的使用率,加快待执行任务的执行速度,提高执行效率。
-
公开(公告)号:CN117667309A
公开(公告)日:2024-03-08
申请号:CN202311665953.5
申请日:2023-12-05
Applicant: 之江实验室
IPC: G06F9/455
Abstract: 本说明书公开了一种快照镜像的加载方法、装置、存储介质及电子设备,包括:启动平台生成虚拟机对应的快照镜像,对快照镜像中各内存页是否为空进行标记。启动虚拟机以及页错误处理程序,使内核在从虚拟机访问虚拟机自身的内存时,确定在快照镜像中未加载到虚拟机的内存的内存页为目标内存页,将目标内存页的信息发送给页错误处理程序,使页错误处理程序根据目标内存页的信息,确定目标内存页在快照镜像中的标记,当标记表示目标内存页为空时,将空内存页加载到虚拟机自身的内存中,当标记表示目标内存页为非空时,在快照镜像中读取目标内存页,并加载到虚拟机自身的内存中,减少读取快照镜像的操作,节省快照镜像的加载时间。
-
公开(公告)号:CN117614928A
公开(公告)日:2024-02-27
申请号:CN202311538638.6
申请日:2023-11-16
Applicant: 之江实验室
IPC: H04L61/2503 , H04L61/2596 , H04L67/10 , G06F9/455
Abstract: 本说明书公开了一种实现网络快速恢复的函数沙箱批量创建的方法、装置,预先向虚拟机监控器添加网络地址转化协议代码,当接收到计算任务时,根据所述计算任务,确定执行所述计算任务所需的函数沙箱的数量,根据所述计算任务,创建所述数量的虚拟网络设备,根据所述计算任务所对应的快照文件以及添加了所述网络地址转化协议代码的虚拟机监控器,在各虚拟网络设备的环境中创建函数沙箱,为创建的每个函数沙箱选择未被使用且各不相同的替换地址,将选择出的替换地址分发给每个函数沙箱,保证了批量创建出的函数沙箱的通信功能,简化了云计算平台批量创建函数沙箱的流程,加快了计算任务的响应速度。
-
公开(公告)号:CN117037158A
公开(公告)日:2023-11-10
申请号:CN202311298523.4
申请日:2023-10-09
Applicant: 之江实验室
IPC: G06V20/70 , G06V20/40 , G06V20/62 , G06V10/764
Abstract: 本申请提供体一种基于视频语义驱动的城市大脑云边协同计算方法及装置,包括:获取视频流数据;对所述视频流数据进行语义检测,获得语义检测结果;根据所述语义检测结果从所述视频流数据中抽取得到目标图片;确定与当前边缘节点建立通信且具有处理资源的节点,作为目标节点;向所述目标节点发送所述目标图片,以使所述目标节点对所述目标图片进行语义结果提取,获得语义结果。本申请解决了边缘节点之间带宽受限、视频流直接传输困难、边缘服务器负载容量有限的问题,在面对突发大流量处理时,本申请提供的基于视频语义驱动的城市大脑云边协同计算方法能提供高效的云边协同处理能力,有效保障目标跟踪、流量统计等业务流不中断。
-
公开(公告)号:CN117010485A
公开(公告)日:2023-11-07
申请号:CN202311293177.0
申请日:2023-10-08
Applicant: 之江实验室
IPC: G06N3/098 , H04L67/1001 , G06F9/50
Abstract: 本说明书公开了一种边缘场景下的分布式模型训练系统及梯度规约方法,在系统中设置有用于根据自身存储的训练样本确定第一梯度的边缘设备,以及接收各边缘设备的梯度并共享的边缘服务器,在模型迭代过程中,由边缘设备确定自身梯度,并将自身梯度发送给边缘服务器,边缘服务器根据接收到的第一梯度确定局部梯度,并基于局部梯度确定总梯度,以根据确定出的总梯度执行模型训练任务。该模型训练系统在各边缘设备的网络情况各不相同的情况下,可通过与各边缘设备连接的边缘服务器先确定局部梯度,再通过指定网络确定总梯度,并根据确定出的总梯度训练模型,保证了模型训练效率。
-
公开(公告)号:CN116582407A
公开(公告)日:2023-08-11
申请号:CN202310387279.2
申请日:2023-04-11
Applicant: 之江实验室 , 中国地质大学(武汉)
IPC: H04L41/0273 , H04L41/14 , H04L41/0894
Abstract: 本发明提供了一种基于深度强化学习的容器化微服务编排系统及方法,基于本发明提出的“延迟奖励策略”和“延迟奖励匹配深度Q学习算法”构建的,一共包含五个模块,系统信息获取模块,奖励生成模块,延迟奖励匹配模块,强化学习训练模块,决策模块和两个缓存,临时经验缓存和全局经验缓存。系统信息获取模块用于获取边缘节点环境的状态信息,奖励生成模块用于计算延迟奖励,延迟奖励匹配模块用于解决经验的配对问题,强化学习训练模块用于训练Deep Q‑NetWork,决策模块用于控制智能体做出决策。本发明的有益效果是:有效地解决了传统微服务编排平台对于高动态性微服务编排的局限性。
-
-
-
-
-
-
-
-
-