人工智能论文识别方法及装置
    1.
    发明公开

    公开(公告)号:CN118378619A

    公开(公告)日:2024-07-23

    申请号:CN202410174989.1

    申请日:2024-02-07

    Applicant: 清华大学

    Abstract: 本发明提供一种人工智能论文识别方法及装置。该人工智能论文识别方法包括:将当前论文的摘要输入论文摘要识别模型中,得到摘要相关值和摘要非相关值;将当前论文的标题输入论文标题识别模型中,得到标题相关值和标题非相关值;根据所述摘要相关值、所述摘要非相关值、所述标题相关值和所述标题非相关值确定人工智能论文概率;根据所述人工智能论文概率确定所述当前论文的识别结果;其中,论文识别模型通过对注意力网络的二阶段训练得到,所述论文识别模型包括论文摘要识别模型和所述论文标题识别模型。本发明可以准确、高效地识别出与人工智能技术相关的研究论文。

    无线网络覆盖优化方法及装置
    2.
    发明公开

    公开(公告)号:CN118139085A

    公开(公告)日:2024-06-04

    申请号:CN202410404858.8

    申请日:2024-04-03

    Applicant: 清华大学

    Abstract: 本申请实施例提供一种无线网络覆盖优化方法及装置,方法包括:获取当前无线网络的状态信息;将所述状态信息输入至多个智能体的初始化的演员‑评论员模型,得到每个智能体对应的动作信息,并根据所述动作信息确定对应的奖励值以及下一步的状态信息;对所述演员‑评论员模型进行迭代训练,直至达到预设的模型收敛条件;通过训练后的所述演员‑评论员模型输出的动作值调整所述工参信息,以对当前的无线网络覆盖进行优化;本申请能够通过表征学习和多智能体强化学习方法,综合考虑基站参数调整和网络整体性能优化的目标,从而实现无线网络覆盖的有效提升,解决无线网络覆盖优化问题。

    一种资源分配方法、装置及设备
    3.
    发明公开

    公开(公告)号:CN118804327A

    公开(公告)日:2024-10-18

    申请号:CN202310906689.3

    申请日:2023-07-24

    Abstract: 本发明提供了一种资源分配方法、装置及设备,其中,资源分配方法,包括:获取目标区域内的至少一个终端所对应的资源分配参数信息;根据资源分配参数信息,得到各个终端在至少一个时间段内的流量需求的第一信息;根据资源分配参数信息和第一信息,得到各个终端所对应的资源分配结果信息;其中,资源分配参数信息包括:基站信息、终端信息、子频段信息,以及基站的发射功率上限值中的至少一项;第一信息包括:终端在当前所处时间段内的流量需求的信息;资源分配结果信息包括:基站分配信息、子频段分配信息,以及发射功率分配信息中的至少一项。本方案解决了现有技术中资源分配方案无法有效满足流量需求、方案复杂的问题。

    一种网约车调度优化模型获取方法及装置

    公开(公告)号:CN118195199A

    公开(公告)日:2024-06-14

    申请号:CN202410174992.3

    申请日:2024-02-07

    Applicant: 清华大学

    Abstract: 本发明提供一种网约车调度优化模型获取方法及装置,涉及数据处理技术领域。所述方法包括:确定每个网格的状态表征;根据状态表征、司机特征、订单特征和订单数量和司机数量,确定每个网格中的订单车辆联合调度策略;执行每个网格中的订单车辆联合调度策略,生成基于元学习的奖励函数,根据所述奖励函数生成基于合作强度的合作优势函数和基于全局回报的全局优势函数,根据所述全局优势函数和所述合作优势函数优化合作强度参数;根据优化合作强度参数后的合作优势函数优化合作策略,得到网约车调度优化模型。所述装置执行上述方法。本发明实施例提供的方法及装置,能提高车辆运载乘客的效率。

    一种多智能体强化学习智能决策方法及装置

    公开(公告)号:CN117252252A

    公开(公告)日:2023-12-19

    申请号:CN202311081579.4

    申请日:2023-08-25

    Applicant: 清华大学

    Abstract: 本发明提供一种多智能体强化学习智能决策方法及装置。该方法包括:确定当前时间步下目标问题内多个智能体所在单元的状态向量;将相邻智能体的状态向量输入到目标智能体中算法模型包含的图注意力网络,获得相应的影响权重,基于影响权重对相邻智能体的状态向量进行加权平均处理得到对应的平均场向量;将目标智能体的状态向量和平均场向量输入到目标智能体中算法模型包含的行动器网络中,获得目标智能体对应的处理决策,以控制目标智能体在当前时间步下按照处理决策执行相应的动作。本发明提供的方法,能够适用于大规模智能体智能决策,大幅提升了多智能体强化学习智能决策效率和精确度,有效提高了智能体决策水平。

Patent Agency Ranking