一种基于海洋环境影响因素的舰机协同探测方法

    公开(公告)号:CN119203557A

    公开(公告)日:2024-12-27

    申请号:CN202411320619.0

    申请日:2024-09-23

    Abstract: 现代水下战争中,海洋环境的复杂多变会对声纳的探测能力产生很大的影响。水面舰艇和反潜直升机根据各自的特性执行搜索任务无法充分发挥协同作战的优势。本发明进行基于海洋环境影响因素的舰机协同探测方法研究,从实际场景出发,提出了一种声呐探测距离分析的优化方法,将待定搜索区域的声呐实际探测距离可视化,提出了舰机协同搜索算法,建立搜索平台运动模型,并对其进行了优化,得到了使舰机协同搜索算法达到最大搜索概率的关键参数调整策略。选用搜索概率作为评价指标,进行实验测试。研究表明,当水面舰艇与反潜直升机协同作战时,可以稳定地实现高探测概率。由此证明了基于海洋环境影响因素的舰机协同探测方法的可行性与有效性。

    一种改进ARIMA-GRNN模型与诺莫图的临床输血量预测及分析方法

    公开(公告)号:CN117672540A

    公开(公告)日:2024-03-08

    申请号:CN202311372329.6

    申请日:2023-10-23

    Abstract: 一种改进ARIMA‑GRNN模型与诺莫图的临床输血量预测及分析方法,为医疗机构不同科室及血站的血液储备提供数据参考,属于时间序列预测领域。本发明包括:基于求和自回归滑动平均模型(Autoregressive Integrated Moving Average model,ARIMA)与广义回归神经网络(Generalized Regression Neural Network,GRNN),建立适合医疗机构的输血量预测ARIMA‑GRNN模型,根据医疗机构的用血量数据在训练过程中获取模型的最优参数,并基于Logistic模型利用R语言绘制诺莫图(Nomogram),量化分析各因子对临床输血量的影响。实验结果表明,本发明建立的血液预测模型具有较好的预测效果,可为医疗机构不同科室及血站的血液储备提供数据参考。

    一种基于改进极坐标系的被动纯方位目标跟踪方法

    公开(公告)号:CN116990821A

    公开(公告)日:2023-11-03

    申请号:CN202310602278.5

    申请日:2023-05-25

    Abstract: 本发明提供了一种水下目标跟踪方法,为克服在传统的直角坐标系下扩展卡尔曼滤波器误差大且易发散的情况,本发明在改进的极坐标系下使用扩展卡尔曼滤波器。该方法能够消除传统坐标系下的模型误差,提高跟踪精度。包括以下步骤:(1)利用被动声纳获取水下目标的方位信息;(2)将水下目标的方位信息转换为改进极坐标系下的距离和方位角;(3)建立改进极坐标系下的跟踪模型;(4)根据跟踪模型,进行目标的方位跟踪。与传统的水下目标跟踪方法相比,本发明在改进的极坐标系下建立跟踪模型,消除了模型误差,提高了跟踪精度。同时,本发明基于被动声纳进行跟踪,具有无源、被动、隐蔽等特点,适用于水下环境下对目标的监测和跟踪。

    一种基于多层神经网络的多声音事件检测方法

    公开(公告)号:CN119446180A

    公开(公告)日:2025-02-14

    申请号:CN202411588305.9

    申请日:2024-11-07

    Abstract: 一种基于多层神经网络的多声音事件检测方法,涉及声音事件检测领域。本发明提出基于融合经验模态分解算法、胶囊网络,注意力机制和双向门控循环网络的弱标记多声音事件检测模型。在该模型中,首先使用AMM‑EMD算法进行预处理,丰富声音事件特征信息,并引入并行卷积结构提取高级特征信息;再利用胶囊网络强大的泛化能力和注意力机制捕捉全局依赖性的能力,对高级特征进一步处理;同时,利用BiGRU模块获取上下文信息。本发明提出的模型在不同的数据集上进行对比消融实验,利用F1和ER评价声音事件检测效果,本发明提出的模型均比其他基线模型有所改善,F1和ER均有提高。

    一种视听跨模态融合语音分离方法

    公开(公告)号:CN116469404A

    公开(公告)日:2023-07-21

    申请号:CN202310430709.4

    申请日:2023-04-20

    Abstract: 目前的视听语音分离模型基本是将视频和音频特征进行简单拼接,视觉信息未被充分利用,分离效果不理想。本发明充分考虑视觉和音频特征之间的相互联系,采用多头注意力机制,结合卷积时域分离模型(ConvolutionalTime‑domainAudioSeparationnetwork,Conv‑TasNet)和双路径递归神经网络(Dual‑PathRecurrentNeuralNetwork,DPRNN),提出时域视听跨模态融合语音分离(Conv‑AudiovisualSpeechSeparation,Conv‑AVSS)模型。该模型通过音频编码器与视觉编码器获得音频特征与唇部特征,采用多头注意力机制将视听特征进行跨模态融合,并将其通过DPRNN分离网络,获得不同说话者的分离语音。利用PESQ、STOI及SDR评价指标,在VoxCeleb2数据集进行实验测试。研究表明,当分离二、三或四位说话者的混合语音时,本方法与传统分离网络相比,SDR提高量均在1.87dB以上,最高可达2.29dB。这表明了本方法的有效性。

    一种基于M估计的变分贝叶斯无迹卡尔曼滤波目标跟踪方法

    公开(公告)号:CN118938230A

    公开(公告)日:2024-11-12

    申请号:CN202411282217.6

    申请日:2024-09-13

    Abstract: 针对水下机动目标跟踪过程中量测量出现野值或量测噪声的后验分布未知的问题,本发明提出了一种基于M估计的变分贝叶斯无迹卡尔曼滤波算法。该算法采用奇异值分解代替无迹卡尔曼滤波算法中的Cholesky分解,以保证协方差矩阵在迭代时的正定性;通过引入M估计方法,将量测信息进行预处理,去除异常值与非高斯噪声的干扰,以增强算法准确性;采用变分策略对量测噪声的后验分布进行实时估计,使得滤波算法在量测噪声后验分布未知的条件下实现准确的跟踪。进行仿真实验测试,本发明所提出的方法相比于原有的算法在量测噪声位置的情况下具有更低的跟踪误差以及收敛速度。该算法显著提升了目标跟踪系统的准确度和鲁棒性,对不确定量测条件下的目标跟踪具有重要的实际意义。

    一种跨模态音视频融合语音分离方法

    公开(公告)号:CN116417008A

    公开(公告)日:2023-07-11

    申请号:CN202310403921.1

    申请日:2023-04-14

    Abstract: 本发明充分考虑视觉特征、音频特征之间的相互联系,采用多头注意力机制,结合稠密光流(Farneback)算法和U‑Net网络,提出跨模态融合的光流‑音视频语音分离(Flow‑AVSS)模型。该模型通过Farneback算法和轻量级网络ShuffleNet v2分别提取运动特征和唇部特征,然后将运动特征与唇部特征进行仿射变换,经过时间卷积模块(TCN)得到视觉特征,为充分利用到视觉信息,在进行特征融合时采用多头注意力机制,将视觉特征与音频特征进行跨模态融合,得到融合音视频特征,最后融合音视频特征经过U‑Net分离网络得到分离语音。利用PESQ、STOI及SDR评价指标,在AVspeech数据集进行实验测试。本方法与纯语音分离网络和仅采用特征拼接的音视频分离网络相比,性能上分别提高了2.23dB和1.68dB。由此表明,采用跨模态注意力进行特征融合,能更加充分利用各个模态相关性,增加的唇部运动特征,能有效提高视频特征的鲁棒性,提高分离效果。

Patent Agency Ranking