-
公开(公告)号:CN114841685B
公开(公告)日:2024-01-05
申请号:CN202210399164.0
申请日:2022-04-12
Applicant: 兰州大学 , 北京众信星空网络技术有限公司
IPC: G06Q20/06 , G06Q20/38 , G06Q40/04 , G06F18/23213
Abstract: 本发明公开了一种比特币交易的溯源方法及装置,通过对比特币网络中的数据进行分析,能够实现将交易与交易创建者的IP相关联,因此在对比特币用户真实身份的推测方面具有更好的效果,解决了传统技术方案无法处理的比特币交易与交易用户的真实身份信息之间的关联问题,填补了比特币交易溯源的技术空白,以便更好的服务于加密货币反洗钱、打击犯罪等。
-
公开(公告)号:CN114841685A
公开(公告)日:2022-08-02
申请号:CN202210399164.0
申请日:2022-04-12
Applicant: 兰州大学 , 北京众信星空网络技术有限公司
Abstract: 本发明公开了一种比特币交易的溯源方法及装置,通过对比特币网络中的数据进行分析,能够实现将交易与交易创建者的IP相关联,因此在对比特币用户真实身份的推测方面具有更好的效果,解决了传统技术方案无法处理的比特币交易与交易用户的真实身份信息之间的关联问题,填补了比特币交易溯源的技术空白,以便更好的服务于加密货币反洗钱、打击犯罪等。
-
公开(公告)号:CN119293757B
公开(公告)日:2025-05-13
申请号:CN202411374496.9
申请日:2024-09-29
Applicant: 兰州大学
Abstract: 本发明公开了一种跨语言多场景的开源许可证兼容性检测系统,通过细粒度的许可证特征融合与抽取,能够更精确地解析和表示许可证信息,从而提高后续兼容性检测的准确性,同时,基于图数据结构的许可证传播计算和冲突检测有效提高了检测效率,通过许可证推理模块自动比较和计算许可证的兼容关系,实现了对更复杂的、跨语言多场景的大型开源或混合源代码项目中复杂软件成分及其互操作方式下的许可证兼容性检查。
-
公开(公告)号:CN119227086A
公开(公告)日:2024-12-31
申请号:CN202411374612.7
申请日:2024-09-29
Applicant: 兰州大学
IPC: G06F21/57 , G06F18/214 , G06F8/53 , G06N3/042 , G06N3/08
Abstract: 本发明公开了一种面向长函数的软件供应链漏洞检测方法,在伪代码层面运用设计的语句级差异提取算法,剔除与漏洞无关的信息;再利用设计的图切片算法将伪代码切片映射至代码属性图,识别并定位漏洞相关语句及其变量节点,通过追踪抽象语法树中的边,溯源与漏洞强相关变量节点在语义上相邻的节点,并构建切片后的差异图。此后,将差异图输入图匹配神经网络训练,使模型能准确判定漏洞与修复后、漏洞与漏洞之间的差异子图对的相似性。最终,通过比较待检测函数与基准样本切片后图的距离,判断其是否存在漏洞,缩小了图的规模又突出了漏洞相关信息,在保证高检测准确率的同时降低了模型训练的时间和硬件成本。
-
公开(公告)号:CN118569298A
公开(公告)日:2024-08-30
申请号:CN202410616918.2
申请日:2024-05-17
Applicant: 兰州大学
Abstract: 本发明公开了一种风险敏感型多智能体强化学习的协同自动驾驶方法,包括以下步骤:(1)使用Actor‑Critic框架和多智能体确定性深度策略梯度算法为虚拟车辆环境中的每个智能体训练策略网络。(2)为每个智能体构造单独的训练网络以及整个系统的风险敏感价值分解网络,使用训练好的策略网络来对这些网络中的参数进行迭代。(3)迭代一定次数后将策略换成每个智能体单独的训练网络继续迭代。(4)在现实环境中通过V2X系统构建车辆的局部观测信息和动作信息,并且通过蜂窝网络上传数据进一步训练。本发明结合了风险敏感型多智能体强化学习对车辆进行训练,适用于风险较高的多车自动驾驶领域。
-
公开(公告)号:CN117764119A
公开(公告)日:2024-03-26
申请号:CN202311782750.4
申请日:2023-12-22
Applicant: 兰州大学
IPC: G06N3/0464 , B25J9/16 , G06N3/084 , G06N3/092
Abstract: 本发明公开一种基于物理信息的双策略网络NAO机器人控制方法,主要包括:(1)构建NAO机器人系统的数学模型,获取机器人搭载的32线激光雷达数据、自身位置信息和摄像头获取的障碍物图像信息;(2)构建连续时间的基于物理信息的双策略网络,并在动作中加入粉色噪声;(3)设计模型的损失函数L,具体涉及强化学习Critic网络的损失函数L1以及基于NAO机器人动力学微分方程的损失函数L2,使用梯度下降方法获得最优避障策略;(4)训练障碍物识别模型,将障碍物识别模型和最优策略部署到NAO机器人上进行评估。本发明将一种基于物理信息的双策略网络算法应用于机器人避障系统中,可以实现连续时间的控制,适用于更加复杂的机器人控制。
-
公开(公告)号:CN117032208A
公开(公告)日:2023-11-10
申请号:CN202310882796.7
申请日:2023-07-18
Applicant: 兰州大学
IPC: G05D1/02
Abstract: 本发明公开了融合人类反馈信息和深度强化学习的履带车自动驾驶方法,包含以下步骤:(1)使用Actor‑Critic算法在环境中探索并保存履带车行驶的轨迹信息,同时使用规则化奖励函数训练自动驾驶车辆的预训练策略;(2)由数据标注员对履带车行驶的轨迹片段进行比较,并根据比较结果标注轨迹片段的奖励值;(3)使用轨迹数据训练基于深度神经网络的奖励函数模型(4)使用PPO算法对预训练策略进行微调直至策略能够控制履带车完成自动驾驶任务。本发明结合人类对行驶轨迹的反馈信息与深度强化学习完成模型的训练,适用于奖励函数不直观且难以人为构造的复杂环境中的履带车自动控制任务。
-
公开(公告)号:CN116052412B
公开(公告)日:2023-08-18
申请号:CN202211487027.9
申请日:2022-11-23
Applicant: 兰州大学
IPC: G08G1/01 , G08G1/0967 , G06F30/27 , G06F17/13 , G06N3/092 , G06N3/084 , G06F111/04
Abstract: 本发明公开了融合物理信息和深度强化学习的自动驾驶车辆控制方法,包含以下步骤:(1)构造连续时间内基于哈密顿‑雅可比‑贝尔曼方程的强化学习偏微分方程,采集车辆行驶中的感知层信息量、动作控制量、奖励值及下一个状态感知层信息量,形成四元组数据并存储;(2)构造基于物理信息的自动驾驶车辆动力学模型并将其求取偏导数添加至强化学习模型约束项中;(3)训练和评估融和物理信息和深度强化学习的自动驾驶车辆控制模型,通过神经网络将车辆运动轨迹样本数据和物理运动学结合构造模型训练函数并在GPU上训练,直到驾驶车辆完成自动控制。本发明结合物理动力学规律和深度强化学习完成模型训练,适用于复杂环境的自动驾驶车辆学习控制。
-
公开(公告)号:CN115500281A
公开(公告)日:2022-12-23
申请号:CN202211269969.X
申请日:2022-10-18
Applicant: 兰州大学
IPC: A01K15/02 , A01K29/00 , A01K39/012 , G06F3/044 , G06F3/045
Abstract: 本发明涉及一种鸟类智能训练系统及方法,涉及鸟类训练领域,系统包括:箱体、主控制器、电源模块、温湿度传感器、光照传感器、第一触摸显示屏、第二触摸显示屏、扬声器、带舵机的食盒、通风模块和灯光模块;箱体用于装载整个系统;主控制器预置若干鸟类训练程序;电源模块用于给系统供电;温湿度传感器和光照传感器用于采集系统的环境参数;通风模块和灯光模块用于对系统环境进行调节;第一触摸显示屏用于鸟类喙击交互;第二触摸显示屏用于操作员与系统交互;扬声器用于根据操作员选择的鸟类训练程序给鸟类播放声音;带舵机的食盒用于当鸟类喙击正确时进行喂食奖励。本发明能够减少鸟类在训练过程中的不可控因素,提高训练效率。
-
公开(公告)号:CN109683882B
公开(公告)日:2022-01-18
申请号:CN201811515415.7
申请日:2018-12-11
Applicant: 兰州大学
Abstract: 本发明涉及基于移动终端的可视化环境下NB‑I0T终端软件开发方法,其特征在于:本发明方法是通过WiFi将移动设备与编程魔盒连接,在移动设备的可视化开发环境中拖拽积木式代码块进行组合,上传代码后将代码生成器生成的代码通过服务器后端发送给编程魔盒,再由MCU编程进程对代码进行分析,找出所使用的端口和硬件模块,添加相应的头文件和库文件,并调用相应编译器与烧写器完成烧写。此外,STM32单片机与NB‑I0T模块进行通信,实现外设到OneNet之间的数据透传。
-
-
-
-
-
-
-
-
-