-
公开(公告)号:CN115064178B
公开(公告)日:2024-07-05
申请号:CN202210711410.1
申请日:2022-06-22
Applicant: 济南大学
IPC: G10L19/018 , G06N3/049 , H04L9/00
Abstract: 本发明属于音频处理技术领域,尤其涉及一种基于脉冲神经网络固定时间同步的音频加解密方法及系统。该加密方法包括,获取待加密的原始音频;生成随机脉冲强度,作为密钥,带入随机脉冲神经网络模型中,得到在固定同步时间之后的混沌驱动信号;将原始音频信号与混沌驱动信号经过置乱和异或操作,生成加密音频信号;其中,所述随机脉冲神经网络模型包括驱动模型和响应模型,根据驱动模型和响应模型,确定误差函数;基于误差函数,确定固定时间同步控制器,得到固定同步时间。本发明采用更加精确的固定时间同步控制定理,结合脉冲神经网络,提高了音频加密的效率和安全性。
-
公开(公告)号:CN115169740A
公开(公告)日:2022-10-11
申请号:CN202210945778.4
申请日:2022-08-08
Applicant: 济南大学
Abstract: 本发明提出了基于压缩感知的池化回声状态网络的序列预测方法及系统,属于网络信息预测技术领域,获取预测任务要求的序列数据;构建基于压缩感知的池化回声状态网络模型,并对网络模型进行训练;将获取的序列数据输入到训练好的池化回声状态网络模型中,得到预测结果;在池化回声状态网络模型的储备池,增加池化层和压缩感知层,池化层用于重新调整储备池节点状态的权值,压缩感知层则对节点进行稀疏变换以及随机亚采样;本发明基于压缩感知和池化算法的机理,提出了一种可以有效减少冗余节点,提高节点活跃性能的机制,有效提高ESN的模型性能,使得储备池在活跃的同时还可以减少计算量,提高模型计算的准确率与运行效率。
-
公开(公告)号:CN115064178A
公开(公告)日:2022-09-16
申请号:CN202210711410.1
申请日:2022-06-22
Applicant: 济南大学
IPC: G10L19/018 , G06N3/04 , H04L9/00
Abstract: 本发明属于音频处理技术领域,尤其涉及一种基于脉冲神经网络固定时间同步的音频加解密方法及系统。该加密方法包括,获取待加密的原始音频;生成随机脉冲强度,作为密钥,带入随机脉冲神经网络模型中,得到在固定同步时间之后的混沌驱动信号;将原始音频信号与混沌驱动信号经过置乱和异或操作,生成加密音频信号;其中,所述随机脉冲神经网络模型包括驱动模型和响应模型,根据驱动模型和响应模型,确定误差函数;基于误差函数,确定固定时间同步控制器,得到固定同步时间。本发明采用更加精确的固定时间同步控制定理,结合脉冲神经网络,提高了音频加密的效率和安全性。
-
公开(公告)号:CN112003700A
公开(公告)日:2020-11-27
申请号:CN202010921524.X
申请日:2020-09-04
Applicant: 济南大学
Inventor: 赵慧
Abstract: 本公开提出了一种忆阻神经网络固定时间控制的安全通信方法及系统,包括:将明文信号与同步前期的随机信号叠加产生混合信号引入到多边耦合忆阻神经网络的驱动系统,将驱动系统信号与混合信号叠加生成加密信号通过传输信道进行发送;接收发送信号并将接收到的发送信号与密钥和参数信息引入到多边耦合忆阻神经网络的响应系统中,进行驱动-响应系统的固定时间同步,解密出明文信号。本发明可以根据需要对于同步时间进行预先设定,能够更加准确以及有效的预测通信时间,提高传输信息的效率以及安全性。
-
公开(公告)号:CN118227821B
公开(公告)日:2024-07-26
申请号:CN202410650741.8
申请日:2024-05-24
Applicant: 济南大学
IPC: G06F16/58 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/08 , G06V10/764
Abstract: 本申请公开了一种基于抗噪声网络的草图检索三维模型的方法,涉及三维模型检索技术领域,在空背景模型内设置虚拟相机获得三维模型的视图表示;选取草图域特征提取网络和模型域特征提取网络,并通过所述视图表示进行预训练。在训练草图域特征提取网络时对置信度较高的嘈杂样本通过加入噪声感知熵正则化对网络进行惩罚,减少网络对噪声样本的学习。在模型域特征提取网络训练时,模型域视图融合时通过学习不同视图的权重对模型域特征有了更好的表示,并且在构建跨域联合网络时采用有监督对比学习的方法更好对齐了同类的草图和模型样本,进而使得草图检索三维模型任务的准确率上得到了提高,并且加强了模型的鲁棒性。
-
公开(公告)号:CN117194918A
公开(公告)日:2023-12-08
申请号:CN202311117759.3
申请日:2023-08-31
Applicant: 济南大学
IPC: G06F18/20 , G06F18/214 , G06F17/16 , G06F17/11 , G06N3/126
Abstract: 本发明公开了基于自注意力回声状态网络的气温预测方法及系统,属于气温预测技术领域。包括获取历史气候温度数据,构建时间序列数据;将时间序列数据输入训练好的气温预测模型进行处理,以获取气温预测结果;其中,气温预测模型为自注意力回声状态网络,训练所述气温预测模型的过程包括:获取历史气温数据集,构建训练集;初始化气温预测模型的网络参数,基于训练集,通过遗传算法对气温预测模型的网络参数进行迭代优化,确定最优网络权重参数。能够提升气温预测的精度,解决了现有技术中存在模型稳定性和泛化能力差,影响气温预测精度的问题。
-
公开(公告)号:CN118227821A
公开(公告)日:2024-06-21
申请号:CN202410650741.8
申请日:2024-05-24
Applicant: 济南大学
IPC: G06F16/58 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/08 , G06V10/764
Abstract: 本申请公开了一种基于抗噪声网络的草图检索三维模型的方法,涉及三维模型检索技术领域,在空背景模型内设置虚拟相机获得三维模型的视图表示;选取草图域特征提取网络和模型域特征提取网络,并通过所述视图表示进行预训练。在训练草图域特征提取网络时对置信度较高的嘈杂样本通过加入噪声感知熵正则化对网络进行惩罚,减少网络对噪声样本的学习。在模型域特征提取网络训练时,模型域视图融合时通过学习不同视图的权重对模型域特征有了更好的表示,并且在构建跨域联合网络时采用有监督对比学习的方法更好对齐了同类的草图和模型样本,进而使得草图检索三维模型任务的准确率上得到了提高,并且加强了模型的鲁棒性。
-
公开(公告)号:CN115037438A
公开(公告)日:2022-09-09
申请号:CN202210630994.X
申请日:2022-06-06
Applicant: 济南大学
Abstract: 本发明涉及属于安全通信技术领域,具体提供了一种将明文信号与随机信号结合产生混合信号引入到忆阻复值BAM神经网络驱动系统,产生驱动系统混沌信号,将混沌信号与混合信号叠加产生加密信号并传输给接收端;接收加密信号并将接收到的加密信号引入忆阻复值BAM神经网络响应系统,实现驱动‑响应系统的预定义时间同步并产生响应系统混沌信号,与加密信号作差解密出明文信号;本发明采用预定义时间同步,对于同步时间可以由用户预先设定,能够更加准确的预计有效通信时间;采用忆阻复值神经网络,能产生更复杂且不可预测的混沌信号,提高加密的安全性。
-
公开(公告)号:CN118626675A
公开(公告)日:2024-09-10
申请号:CN202410750171.X
申请日:2024-06-12
Applicant: 济南大学
IPC: G06F16/783 , G06F16/735 , G06V20/40 , G06V10/82 , G06V10/80
Abstract: 本发明提供一种基于大模型的粗细粒度相结合的哈希视频检索方法,通过获取视频数据集数据;对视频数据集进行划分和预处理操作;将视频输入分别输入到CLIP帧特征提取模块和Transformer视频特征提取模块;将得到的帧特征信息通过提出的多粒度融合模块中的空间注意力机制进行加权得到帧融合视频信息;将得到的粗粒度视频信息与帧融合视频信息按照给定的特定超参数进行加权融合,最终得到视频信息;将得到的视频信息输入哈希码生成模块中,并通过损失函数,优化网络;将测试样本与数据库中的样本根据汉明距离进行排序,检索到的正确结果。通过采用本发明的技术方案,能够有效增加视频检索的速度,提高视频检索的精度。
-
公开(公告)号:CN115037438B
公开(公告)日:2024-07-23
申请号:CN202210630994.X
申请日:2022-06-06
Applicant: 济南大学
Abstract: 本发明涉及属于安全通信技术领域,具体提供了一种将明文信号与随机信号结合产生混合信号引入到忆阻复值BAM神经网络驱动系统,产生驱动系统混沌信号,将混沌信号与混合信号叠加产生加密信号并传输给接收端;接收加密信号并将接收到的加密信号引入忆阻复值BAM神经网络响应系统,实现驱动‑响应系统的预定义时间同步并产生响应系统混沌信号,与加密信号作差解密出明文信号;本发明采用预定义时间同步,对于同步时间可以由用户预先设定,能够更加准确的预计有效通信时间;采用忆阻复值神经网络,能产生更复杂且不可预测的混沌信号,提高加密的安全性。
-
-
-
-
-
-
-
-
-