多策略验证方法、装置、电子设备和可读存储介质

    公开(公告)号:CN117955848A

    公开(公告)日:2024-04-30

    申请号:CN202211297085.5

    申请日:2022-10-21

    Abstract: 本发明公开了一种多策略验证方法、装置、电子设备和可读存储介质,涉及信息通信网络技术领域,以解决策略验证的时间开销较大,效率较低的问题。该方法包括:对至少两个策略执行划分操作,获得N个策略集,N个策略集中同一策略集中的策略可并行执行;依次将N个策略集注入第一仿真网络,得到第二仿真网络,N个策略集中同一策略集中的策略并行注入,第一仿真网络基于预先获取的目标网络的网络数据生成,用于模拟目标网络,第二仿真网络为基于至少两个策略对第一仿真网络进行更新得到的仿真网络;对第二仿真网络的稳定性进行校验,得到校验结果,校验结果用于验证至少两个策略的可行性。本实施例可缩短策略验证的时间,提高策略验证的效率。

    一种基于QUIC协议的RDMA建链方法
    4.
    发明公开

    公开(公告)号:CN119922000A

    公开(公告)日:2025-05-02

    申请号:CN202510091669.4

    申请日:2025-01-21

    Abstract: 一种基于QUIC协议的RDMA建链方法,包括下列操作步骤:(1)通过将开源的msquic修改为内核态代码,实现用户态协议QUIC的内核化;(2)将内核化后的QUIC协议代码嵌入到RDMA网卡驱动的源码中;(3)通过调用QUIC API,使用QUIC协议的建链逻辑进行建链,并且能实现0‑RTT;本发明方法大大减少了建链时间,在大模型多机多卡分布式训练等需要频繁建链的场景下,提高了整体网络的通讯性能。

    一种实时渲染场景下的显著区域编码方法和系统

    公开(公告)号:CN119697374A

    公开(公告)日:2025-03-25

    申请号:CN202411831889.8

    申请日:2024-12-12

    Abstract: 一种实时渲染场景下的显著区域编码方法和系统,包括:配置应用画面上各类物体的重要性;根据用户输入的控制信息实时生成视频流,从视频流中获取并渲染生成当前帧画面,然后根据配置物体重要性,通过渲染上下文在GPU缓冲区中再渲染生成当前帧画面对应的重要性纹理图,最后将当前帧画面和其重要性纹理图送入CPU中;根据重要性纹理图中宏块的重要性权重,计算当前帧画面中每个宏块需要调整的QP增量,然后根据QP增量对每个宏块的QP值调整,并根据QP值对当前帧画面进行编码。本发明涉及信息通信网络领域,能从渲染管线中实时获取精确的物体级显著区域并完成编码,在保证实时性的前提下,增强用户感兴趣区域的视频质量,适用于电子游戏等实时渲染场景。

    基于精细关联挖掘的流量预测系统和方法

    公开(公告)号:CN116756206A

    公开(公告)日:2023-09-15

    申请号:CN202310543168.6

    申请日:2023-05-15

    Abstract: 基于精细关联挖掘的流量预测系统,包括如下模块:输入卷积模块、关联捕获功能模块、时空特征处理模块和输出卷积模块;基于精细关联挖掘的流量预测方法,包括如下操作步骤:(1)输入卷积模块将低维历史交通流量数据映射为高维历史交通流量数据;(2)关联捕获功能模块自适应提取交通点位之间的关联关系,计算出表示交通点位间关联关系的n个超图;(3)时空特征处理模块计算出每个交通点位的融合了时空信息的l个交通点位高维特征矩阵;(4)输出卷积模块根据上述交通点位高维特征矩阵计算出未来交通点位车流速度的预测值。

    基于检索的多轮对话系统和方法

    公开(公告)号:CN115017286B

    公开(公告)日:2023-04-07

    申请号:CN202210649202.3

    申请日:2022-06-09

    Abstract: 基于检索的多轮对话系统,包括如下模块:表示模块、匹配模块、聚合模块和预测模块;基于检索的多轮对话方法,包括下列操作步骤:(1)表示模块将每一轮次的对话转化为对话的级联向量,将候选答案转化为候选答案的级联向量;(2)匹配模块基于全局注意力机制,动态吸收上下文信息,计算得到匹配向量;(3)聚合模块处理得到短期依赖信息序列和长期依赖信息序列;(4)预测模块计算参与匹配的上下文环境和候选答案的匹配分数;(5)选择匹配分数最高的候选答案作为正确答案。

    一种实现并行任务调度的多任务强化学习方法

    公开(公告)号:CN110580196B

    公开(公告)日:2021-04-06

    申请号:CN201910864432.X

    申请日:2019-09-12

    Abstract: 一种实现并行任务调度的多任务强化学习方法,基于异步优势表演者批评家算法实现,包括下列操作步骤:(1)对算法模型进行设置操作以更好的解决并行多任务调度问题,包括设置状态空间、设置动作空间、设置奖励定义;(2)对算法网络进行如下改进:用深度神经网络来表示策略函数和值函数;全局网络由输入层、共享子网络和输出子网络构成;(3)设置算法的新损失函数;(4)利用采集观测的并行任务调度数据,训练算法网络,算法收敛后,将所述算法网络用于并行任务调度。

Patent Agency Ranking