内存资源分配方法、资源隔离和预留系统及相关装置

    公开(公告)号:CN119065825A

    公开(公告)日:2024-12-03

    申请号:CN202310653810.6

    申请日:2023-06-02

    Abstract: 本申请实施例公开了一种内存资源分配方法、资源隔离和预留系统及相关装置,方法包括:响应于内存分配模块接收到的针对进程的空闲页面申请请求,通过进程组模块确定与进程绑定的进程组,并确定进程组对应的内存颜色;通过内存分配模块确定内存颜色对应的目标空闲页面,并根据内存颜色为进程分配cache资源和内存区域,以及返回目标空闲页面,其中,内存颜色由内存bank位和set位确定,目标空闲页面唯一访问内存区域。采用本申请实施例有利于使得进程之间减少内存替换和cache争用的情况。

    一种基于机械臂的多样化道路划线机器人控制系统

    公开(公告)号:CN118927273A

    公开(公告)日:2024-11-12

    申请号:CN202411241705.2

    申请日:2024-09-05

    Applicant: 兰州大学

    Abstract: 本发明公开了一种基于机械臂的多样化道路划线机器人系统设计的实现方法,提供了一种多样化道路划线机器人,机器人配备有先进的传感器、定位系统和控制系统,能够自动进行道路标线的划设,可以自动执行划线任务。机器人的作业速度通常高于人工划线,大大提高了工作效率。使用太阳能电池实现全天候工作。多样化道路划线机器人包括自动定位装置、自动行进装置、避障装置、多样化喷涂装置和多传感器控制装置。本发明具有适用于多种地形、可使用于多种场所、实现多功能于一体和使用范围广泛的特点。

    一种风险敏感型多智能体强化学习的协同自动驾驶方法

    公开(公告)号:CN118569298A

    公开(公告)日:2024-08-30

    申请号:CN202410616918.2

    申请日:2024-05-17

    Applicant: 兰州大学

    Abstract: 本发明公开了一种风险敏感型多智能体强化学习的协同自动驾驶方法,包括以下步骤:(1)使用Actor‑Critic框架和多智能体确定性深度策略梯度算法为虚拟车辆环境中的每个智能体训练策略网络。(2)为每个智能体构造单独的训练网络以及整个系统的风险敏感价值分解网络,使用训练好的策略网络来对这些网络中的参数进行迭代。(3)迭代一定次数后将策略换成每个智能体单独的训练网络继续迭代。(4)在现实环境中通过V2X系统构建车辆的局部观测信息和动作信息,并且通过蜂窝网络上传数据进一步训练。本发明结合了风险敏感型多智能体强化学习对车辆进行训练,适用于风险较高的多车自动驾驶领域。

    一种基于物理信息的双策略网络NAO机器人控制方法

    公开(公告)号:CN117764119A

    公开(公告)日:2024-03-26

    申请号:CN202311782750.4

    申请日:2023-12-22

    Applicant: 兰州大学

    Abstract: 本发明公开一种基于物理信息的双策略网络NAO机器人控制方法,主要包括:(1)构建NAO机器人系统的数学模型,获取机器人搭载的32线激光雷达数据、自身位置信息和摄像头获取的障碍物图像信息;(2)构建连续时间的基于物理信息的双策略网络,并在动作中加入粉色噪声;(3)设计模型的损失函数L,具体涉及强化学习Critic网络的损失函数L1以及基于NAO机器人动力学微分方程的损失函数L2,使用梯度下降方法获得最优避障策略;(4)训练障碍物识别模型,将障碍物识别模型和最优策略部署到NAO机器人上进行评估。本发明将一种基于物理信息的双策略网络算法应用于机器人避障系统中,可以实现连续时间的控制,适用于更加复杂的机器人控制。

    融合人类反馈信息和深度强化学习的履带车自动驾驶方法

    公开(公告)号:CN117032208A

    公开(公告)日:2023-11-10

    申请号:CN202310882796.7

    申请日:2023-07-18

    Applicant: 兰州大学

    Abstract: 本发明公开了融合人类反馈信息和深度强化学习的履带车自动驾驶方法,包含以下步骤:(1)使用Actor‑Critic算法在环境中探索并保存履带车行驶的轨迹信息,同时使用规则化奖励函数训练自动驾驶车辆的预训练策略;(2)由数据标注员对履带车行驶的轨迹片段进行比较,并根据比较结果标注轨迹片段的奖励值;(3)使用轨迹数据训练基于深度神经网络的奖励函数模型(4)使用PPO算法对预训练策略进行微调直至策略能够控制履带车完成自动驾驶任务。本发明结合人类对行驶轨迹的反馈信息与深度强化学习完成模型的训练,适用于奖励函数不直观且难以人为构造的复杂环境中的履带车自动控制任务。

    融合物理信息和深度强化学习的自动驾驶车辆控制方法

    公开(公告)号:CN116052412B

    公开(公告)日:2023-08-18

    申请号:CN202211487027.9

    申请日:2022-11-23

    Applicant: 兰州大学

    Abstract: 本发明公开了融合物理信息和深度强化学习的自动驾驶车辆控制方法,包含以下步骤:(1)构造连续时间内基于哈密顿‑雅可比‑贝尔曼方程的强化学习偏微分方程,采集车辆行驶中的感知层信息量、动作控制量、奖励值及下一个状态感知层信息量,形成四元组数据并存储;(2)构造基于物理信息的自动驾驶车辆动力学模型并将其求取偏导数添加至强化学习模型约束项中;(3)训练和评估融和物理信息和深度强化学习的自动驾驶车辆控制模型,通过神经网络将车辆运动轨迹样本数据和物理运动学结合构造模型训练函数并在GPU上训练,直到驾驶车辆完成自动控制。本发明结合物理动力学规律和深度强化学习完成模型训练,适用于复杂环境的自动驾驶车辆学习控制。

    一种鸟类智能训练系统及方法

    公开(公告)号:CN115500281A

    公开(公告)日:2022-12-23

    申请号:CN202211269969.X

    申请日:2022-10-18

    Applicant: 兰州大学

    Abstract: 本发明涉及一种鸟类智能训练系统及方法,涉及鸟类训练领域,系统包括:箱体、主控制器、电源模块、温湿度传感器、光照传感器、第一触摸显示屏、第二触摸显示屏、扬声器、带舵机的食盒、通风模块和灯光模块;箱体用于装载整个系统;主控制器预置若干鸟类训练程序;电源模块用于给系统供电;温湿度传感器和光照传感器用于采集系统的环境参数;通风模块和灯光模块用于对系统环境进行调节;第一触摸显示屏用于鸟类喙击交互;第二触摸显示屏用于操作员与系统交互;扬声器用于根据操作员选择的鸟类训练程序给鸟类播放声音;带舵机的食盒用于当鸟类喙击正确时进行喂食奖励。本发明能够减少鸟类在训练过程中的不可控因素,提高训练效率。

    一种矩形二维码
    28.
    发明公开

    公开(公告)号:CN115130629A

    公开(公告)日:2022-09-30

    申请号:CN202110331455.1

    申请日:2021-03-26

    Applicant: 兰州大学

    Abstract: 本发明提供了一种矩形二维码,所述矩形二维码包括一个定位图案,两条相互垂直的标准线以及数据区域三部分,该矩形二维码具有11个版本,其尺寸在5×19码元至13×35码元之间,支持待编码数据长度在6至66字节之间。该矩形二维码具有尺寸小、形状为矩形以及扩展性强的特点。

    一种基于激光雷达的单线数据分析对物体空间封闭的聚类方法

    公开(公告)号:CN111325229A

    公开(公告)日:2020-06-23

    申请号:CN201811544723.2

    申请日:2018-12-17

    Applicant: 兰州大学

    Abstract: 本发明公开一种基于激光雷达的单线数据分析对物体空间封闭的聚类方法,包括步骤S1:从激光雷达Velodyne中提取单线数据,并将每组单线数据映射到二维平面上;步骤S2:利用步骤S1中的二维平面数据,对每组数据使用切线的方法提取物体边缘线,依次分割提取出单个物体的边缘;步骤S3:对分割出的物体边缘点集处理获得物体的中心点,以及水平方向所占面积;步骤S4:组合所有二维平面单线数据,在三维空间中确定所有物体最终的精确位置及水平方向所占面积。本发明对距离过近的空间物体的分割聚类具有较好的鲁棒性。

Patent Agency Ranking