一种基于神经虚拟自博弈的智能对抗方法

    公开(公告)号:CN116866895A

    公开(公告)日:2023-10-10

    申请号:CN202310888280.3

    申请日:2023-07-19

    IPC分类号: H04W12/00 H04W28/02

    摘要: 本发明公开了一种基于神经虚拟自博弈的智能对抗方法。该方法包括:设计了基于神经虚拟自博弈的智能对抗算法,通过离线自博弈实现抗干扰策略自学习与演化。首先,用户构建虚拟干扰模型,初始化自身和干扰的最优响应策略网络与平均策略网络,在每轮对抗中,双方依概率选择本轮的动作选择策略;然后,双方在每轮时隙中观察当前的信息集状态,输入到动作选择网络中,输出并执行当前动作,之后计算当前动作获得的奖励值,并将对抗记录存放到记忆存储单元中;最后,随机采样历史对抗样本,通过梯度下降算法更新策略网络,循环上述交互过程直至指定轮次。本发明能够降低不完美信息对抗干扰决策的影响,显著提升有限能量下的平均速率。

    多用户协同抗干扰系统及动态频谱协同抗干扰方法

    公开(公告)号:CN112188504B

    公开(公告)日:2023-03-28

    申请号:CN202011053666.5

    申请日:2020-09-30

    IPC分类号: H04W16/14 H04W24/02 H04W28/18

    摘要: 本发明公开了一种多用户协同抗干扰系统及动态频谱协同抗干扰方法,属于无线通信抗干扰技术领域。由多个数据采集设备和用频设备组成分布式无线网络,每个不同用频设备需要将数据上传给附近的数据采集设备;网络外部受到恶意干扰攻击。网络内用户可通过宽带频谱感知当前干扰信号所处频段,采用分布式学习调整信道接入策略。首先通信方观测干扰信号,并将干扰信号作为“推荐信号”;各用户根据推荐信号与对应的信道接入概率,挑选信道进行数据传输,并与邻居节点进行信息交互确定通信回报;之后,根据通信回报更新信道接入策略表对应的信道接入概率。本发明模型完备,物理意义清晰,既可避免同频互扰,也可避开恶意干扰,有效提高了网络通信吞吐量。

    多用户协同抗干扰系统及动态频谱协同抗干扰方法

    公开(公告)号:CN112188504A

    公开(公告)日:2021-01-05

    申请号:CN202011053666.5

    申请日:2020-09-30

    IPC分类号: H04W16/14 H04W24/02 H04W28/18

    摘要: 本发明公开了一种多用户协同抗干扰系统及动态频谱协同抗干扰方法,属于无线通信抗干扰技术领域。由多个数据采集设备和用频设备组成分布式无线网络,每个不同用频设备需要将数据上传给附近的数据采集设备;网络外部受到恶意干扰攻击。网络内用户可通过宽带频谱感知当前干扰信号所处频段,采用分布式学习调整信道接入策略。首先通信方观测干扰信号,并将干扰信号作为“推荐信号”;各用户根据推荐信号与对应的信道接入概率,挑选信道进行数据传输,并与邻居节点进行信息交互确定通信回报;之后,根据通信回报更新信道接入策略表对应的信道接入概率。本发明模型完备,物理意义清晰,既可避免同频互扰,也可避开恶意干扰,有效提高了网络通信吞吐量。

    一种基于零样本学习的干扰模式开集识别模型及方法

    公开(公告)号:CN114239672A

    公开(公告)日:2022-03-25

    申请号:CN202111158519.9

    申请日:2021-09-30

    IPC分类号: G06K9/62 G06N3/04 G06N3/08

    摘要: 本发明公开了一种基于零样本学习的干扰模式开集识别模型及方法。考虑一个无线通信抗干扰场景,为躲避干扰,背景用户基于频谱感知选择空闲信道进行通信。感知设备持续地感知频谱,并且在智能体的辅助下识别干扰模式。为解决未知的干扰模式的识别问题,设计了一种监督训练、无监督分类的开集识别方案,在监督训练阶段训练编码器学习已知的干扰模式的潜在特征表示,在无监督分类阶段按照基于距离的分类准则在特征空间内对已知和未知的干扰模式进行分类,能够有效应对未知干扰模式,获得较高的开集识别准确率。本发明模型完备,物理意义清晰,算法设计合理有效,能够很好地刻画无线通信抗干扰场景中的干扰模式开集识别场景。

    一种深度Q神经网络抗干扰模型及智能抗干扰算法

    公开(公告)号:CN108777872A

    公开(公告)日:2018-11-09

    申请号:CN201810494872.6

    申请日:2018-05-22

    摘要: 本发明公开了一种深度Q神经网络抗干扰模型及智能抗干扰算法。模型为:一组发射端和接收端对为一个用户,一个用户进行通信,一个或多个干扰机对用户通信进行干扰,将接收端的频谱瀑布图作为学习的输入状态,计算干扰的频域和时域特征。算法为:首先,通过深度Q神经网络得到拟合对应的Q值表;其次,用户依概率选择一个策略,根据该策略的回报值和下一步环境状态进行训练,并更新网络权重和选频策略;当达到最大循环次数时,算法结束。本发明模型完备,物理意义清晰,设计算法合理有效,能够很好地刻画基于深度强化学习算法的抗干扰场景。

    一种基于多智能体强化学习的无人机辅助通信抗干扰方法

    公开(公告)号:CN118921099A

    公开(公告)日:2024-11-08

    申请号:CN202410908587.X

    申请日:2024-07-08

    摘要: 本申请提供一种基于多智能体强化学习的无人机辅助通信抗干扰方法,网络由多个地面用频设备及无人机基站组成,每个地面节点需要将数据上传至无人机;此外,网络外部受到多个不同类型的恶意干扰机攻击。网络中地面节点通过宽带频谱感知当前时刻各频段信号能量,无人机根据地面节点的服务质量动态调整轨迹,采用多智能体强化学习动态调整地面节点发射功率、信道接入策略及无人机轨迹。方法为:用户、无人机依次基于PPO算法选择一个策略,根据该策略的奖励值和下一步环境状态进行训练,并更新网络权重和策略;当达到最大迭代次数时,算法结束。本发明模型完备,设计算法合理有效,既能避免干扰,也能保证用户服务质量,有效提高了网络通信吞吐量。

    一种面向大决策空间的高效抗干扰模型及学习方法

    公开(公告)号:CN118764118A

    公开(公告)日:2024-10-11

    申请号:CN202410783048.8

    申请日:2024-06-18

    IPC分类号: H04B17/391 H04B1/02 H04B1/06

    摘要: 本发明公开了一种面向大决策空间的高效抗干扰模型及学习方法。考虑一个集中式决策的无线通信抗干扰场景,通信方包括一个接收机和n个发射机,干扰方仅包含一个模式化的干扰机。接收机进行集中式决策,其决策空间的大小随发射机数目呈指数增长。为解决传统的抗干扰决策方法在面对大决策空间时性能不佳的问题,本发明设计了一种面向大决策空间的高效抗干扰学习方法,在传统的神经网络的基础上,引入动作分支架构对决策空间进行分解,将指数级增长的输出节点的数目降为线性增长;设计基于非法动作屏蔽的顺序决策机制,通过剔除非法动作来缩小合法动作空间,从而加速算法收敛。本发明模型完备,物理意义清晰,算法设计合理有效,能够很好地刻画大决策空间下的智能通信抗干扰场景。

    一种鲁棒的智能选频对抗博弈模型及学习方法

    公开(公告)号:CN117997465A

    公开(公告)日:2024-05-07

    申请号:CN202410198289.6

    申请日:2024-02-22

    IPC分类号: H04K3/00 H04W24/06 G06N3/094

    摘要: 本发明公开了一种鲁棒的智能选频对抗博弈模型及学习方法。考虑一个由红蓝双方组成的通信对抗场景,蓝色方包括两个用户和一个基站,红方则包括一个干扰机。干扰机可采取固定模式、反应式和主动式等多样化的干扰策略。为获得鲁棒的抗干扰通信效果,通信方引入虚拟干扰进行对抗训练。由于无法获取干扰方的信息,通信方只能参照自身参数来配置虚拟干扰。为避免对某一虚拟干扰过拟合,进一步引入虚拟智能体库以保证对手的多样性。虚拟干扰定期将历史版本的策略作为独立智能体保存至虚拟智能体库,通信方则按照规则从该库中挑选出作为对手进行对抗训练,从而获得鲁棒的选频抗干扰策略。本发明模型完备,物理意义清晰,算法设计合理有效,能够很好地刻画智能选频对抗场景。