一种基于影像解析的辅助侦察目标定位方法

    公开(公告)号:CN116608857A

    公开(公告)日:2023-08-18

    申请号:CN202310468907.X

    申请日:2023-04-27

    IPC分类号: G01C21/20

    摘要: 本发明属于辅助侦察定位技术领域,具体涉及一种基于影像解析的辅助侦察目标定位方法。包括步骤:保存一帧打击目标和辅助侦察目标同时出现在视场中的影像,记录飞行器在地理坐标系的坐标和姿态角、摄像机框架角和失调角;计算打击目标与飞行器的距离;计算俯仰视线角;计算辅助侦察目标在摄像机坐标系的坐标;将辅助侦察目标在摄像机坐标系的坐标经坐标变换解算其在北天东坐标系的坐标,结合飞行器当前坐标信息即可得到辅助侦察目标在地理坐标系的坐标。本发明的突出优点是,充分利用飞行器拍摄的影像和传感器信息,在打击目标的同时进行目标辅助侦察定位,促使武器系统新增一种目标自主信息保障的能力。

    一种弹道偏离时的电子围栏安全控制方法

    公开(公告)号:CN118129546A

    公开(公告)日:2024-06-04

    申请号:CN202410244350.6

    申请日:2024-03-04

    IPC分类号: F42B15/01 E04H17/00 G06F17/10

    摘要: 本发明公开了一种弹道偏离时的电子围栏安全控制方法。在各类型制导弹药的试验飞行或者任务飞行过程中,由意外情况所造成的弹道偏离时常发生,这往往伴随着弹药失去控制而飞行任意区域,因此存在一定的安全隐患,尤其是对于高速或远程弹药。因此,考虑在制导弹药的控制系统中,根据飞行的期望弹道和地理安全区域,装定一组有序的位置点,该组位置点的连线构成了一个安全区域,当弹药的位置在安全区域之外时,立即触发弹药的掉地模式,该策略类似于一个电子围栏。本发明支持的安全区域为任意大于等于三条边的多边形,甚至包括凹多边形。该方法也可判断出弹药位于安全区域边界时的特殊情况,具有广阔的军用和民用的应用前景。

    一种基于参考信号重构的高速率差分键控隐蔽通信方法

    公开(公告)号:CN118921157A

    公开(公告)日:2024-11-08

    申请号:CN202311541502.0

    申请日:2023-11-18

    IPC分类号: H04L9/00 H04W12/02

    摘要: 本发明涉及一种基于参考信号重构的高速率差分键控隐蔽通信方法,解决了目前方法通信速率较慢、误码率高、抗干扰能力弱的问题。步骤1、通信系统参数配置;步骤2、准备待发送的二进制信息;步骤3、采用混沌成型滤波器产生混沌信号;步骤4、构建待传输参考信号;步骤5、确定每个子载波每一帧待传输信息序列;步骤6、构建待传输信息信号;步骤7、构建发送信号;步骤8、接收信号下载波解调和匹配滤波;步骤9、将接收参考信号和接收信息信号的匹配滤波信号降采样;步骤10、采样序列重组;步骤11、参考信号携带信息解码及混沌信号重构;步骤12、信息信号解码。本发明获得了更高的通信速率;极大地降低了噪声干扰,具有极低的误码率。

    一种基于无穷维超混沌的物理层信息加密方法

    公开(公告)号:CN115102685A

    公开(公告)日:2022-09-23

    申请号:CN202210708061.8

    申请日:2022-06-21

    IPC分类号: H04L9/00 H04L9/08 H04L9/06

    摘要: 本发明属于信息安全技术领域,具体涉及一种基于无穷维超混沌的物理层信息加密方法。为了提升目前工业物联网中数据传输的安全性,本发明利用了无穷维超混沌系统进行明文信息加密时,密钥空间可以达到理论的无限维;本发明利用了合法用户之间信道信息作为基于无穷维超混沌的动态Hash密钥函数的输入,得到用于加密的动态密钥,获得了更高的安全性;本发明利用了无穷维超混沌系统特性产生新型S‑box,相比传统S‑box具有更强的抗攻击能力和更好的安全性能。

    自适应Rulkov神经元聚类方法
    7.
    发明公开

    公开(公告)号:CN113723510A

    公开(公告)日:2021-11-30

    申请号:CN202111010222.8

    申请日:2021-08-31

    IPC分类号: G06K9/62 G06N3/04

    摘要: 本发明公开了一种基于自适应Rulkov神经元聚类方法。首先,根据自适应距离和共享近邻构建相似度矩阵,其中自适应距离能够处理具有不同密度的类,共享近邻可减小类内距离,增大类间距离;然后,利用拉普拉斯谱分解的主特征提取方法,进一步提取可分性更好的样本特征;最后,将样本映射为Rulkov神经元,利用Rulkov耦合神经元网络对所得样本特征进一步学习和自适应聚类。对于类间距离较小、可分性较差数据集,本发明方法可获得较对比方法更好的聚类效果。

    一种基于密集多尺度信息融合的双目视觉立体匹配方法

    公开(公告)号:CN115641285A

    公开(公告)日:2023-01-24

    申请号:CN202210706454.5

    申请日:2022-06-21

    摘要: 本发明属于立体视觉技术领域,具体涉及一种基于密集多尺度信息融合的双目视觉立体匹配方法,包括:初步特征提取:采用CNN网络、密集连接网络和坐标注意力机制进行初步特征提取;构建初始联合代价体:跨尺度分组相关代价体和压缩级联代价体级联构建初始联合代价体;代价聚合优化:采用3D堆叠沙漏网络提取更深层的信息,优化初始联合代价体;视差回归:通过视差回归获得4个预测视差图及其置信度;尺度感知融合:利用各尺度视差图的互补优势,融合不同尺度的视差图得到最终的视差图。与现有技术相比较,本发明在合成数据集SceneFlow与真实数据集KITTI 2015上进行了对比实验。实验结果表明,本发明立体匹配方法的匹配性能优于现有方法。

    基于改进人工势场法的无人车双目视觉导航方法

    公开(公告)号:CN115307640A

    公开(公告)日:2022-11-08

    申请号:CN202210906225.8

    申请日:2022-07-29

    IPC分类号: G01C21/20 G06T1/20 G06V20/58

    摘要: 本发明属于人工智能技术领域,具体涉及一种基于改进人工势场法的无人车双目视觉导航方法;首先,使用双目视觉中的半全局立体匹配算法实现场景的深度信息实时感知,设计了基于块比较的半全局立体匹配算法的FPGA实现框架,将半全局立体匹配算法模块化,采用模块内并行运算,模块间采用流水线操作对其进行加速,在减少资源使用的同时提高了立体匹配算法的实时性;然后,对当前场景进行二值化、中值滤波和连通域检测等操作,并结合视差图输出当前场景障碍物距离;最后,针对传统人工势场法中局部极小值问题,本发明通过自主建立虚拟目标点的方式有效解决了局部极小值问题,实现了无人车的路径规划;将本发明方法在搭建的无人车系统上进行了验证,实验结果表明本发明方法的可行性和优越性。