-
公开(公告)号:CN119809544A
公开(公告)日:2025-04-11
申请号:CN202411858351.6
申请日:2024-12-17
Applicant: 国网安徽省电力有限公司综合服务中心 , 安徽大学
Abstract: 本发明公开了一种非电费收入业财票协同管理方法及系统,该方法包括接收业务部门提交的业务项目合同信息及文件;接收业务部门提交的开票申请;基于开票申请信息调用开票系统进行开票;接收财务部门的过账申请,针对用户选择的待过账发票进行过账,形成过账记录并生成应收凭证;接收财务部门的对账申请,对于非电费收入的银行流水进行对账核销,形成对账核销记录并生成收款凭证;接收业务部门提交的开票查询申请,所述查询申请包括查询发票开具情况、应收凭证制证情况、款项回收情况。本发明以业务管理基础,发票管理为主线,实现非电费收入业财票深度融合。
-
公开(公告)号:CN119302672B
公开(公告)日:2025-04-04
申请号:CN202411852205.2
申请日:2024-12-16
Applicant: 安徽大学
IPC: A61B5/372 , A61B5/00 , G06F18/10 , G06F18/213 , G06F18/211 , G06F18/2134 , G06F18/27 , G06N3/084 , G06N3/0499
Abstract: 本发明公开了一种基于神经谱信息跨电极表征学习的大脑年龄预测方法,包括:对被试的多电极通道中的每一电极通道的EEG数据进行预处理,得到1‑20Hz频率下的功率谱密度PSD;利用1‑20Hz频率下的PSD计算每一电极通道的脑电神经谱特征,包括非周期参数AF、周期参数PF、功率比PR、相对能量RE和峰度KUR;将每一电极通道的上述脑电神经谱特征作为单电极自身独立表征的频谱信息,通过稀疏线性回归方法刻画出所有电极神经谱特征的跨电极互相表征的相似性关系矩阵;最后,构建全连接多层神经网络,学习被试的单电极神经谱特征和电极间神经谱特征表征的相似性矩阵与大脑年龄之间的映射关系,根据上述跨电极神经谱特征和神经网络预测被试的大脑年龄。
-
公开(公告)号:CN119049495B
公开(公告)日:2025-01-28
申请号:CN202411518863.8
申请日:2024-10-29
Applicant: 安徽大学
IPC: G10L21/0208 , G10L25/30 , G06F18/25 , G06N3/0464 , G06F18/213
Abstract: 本发明属于语音处理技术领域,具体涉及一种融合声音和脑电信号的目标人物语音提取方法、系统和设备。该方法设计了一个包含脑电编码器、语音编码器、分离网络和语音解码器的语音分离模型,并利用训练好的语音分离模型执行目标人物的语音提取任务。其中,脑电编码器中包括一维卷积层和基于KAN的注意力层。语音编码器中包括一维卷积层和双向Mamba层。分离网络采用交叉注意力模块对提取出的语音特征和脑电特征进行特征融合,并对得到的融合特征进行解析得到目标人物语音的特征掩码。语音解码器利用特征掩码和语音特征重建出目标人物的纯净语音。本发明解决现有方案难以有效捕捉深层脑电特征和全局语音特征,重建出的目标人物语音的精度较差的问题。
-
公开(公告)号:CN119360878A
公开(公告)日:2025-01-24
申请号:CN202411897514.1
申请日:2024-12-23
Applicant: 安徽大学
IPC: G10L21/0308 , G10L21/0272 , G10L25/30 , G06N3/0464 , G06N3/08
Abstract: 本发明涉及语音分离技术领域,具体涉及结合声学特征和状态空间模型的语音分离方法及系统。本发明为了实现语音分离提供了一种语音分离模型,其首先通过音频编码部对混合语音Voicemix进行编码以得到N种不同分辨率的音频特征{F1~FN},接着通过声学特征提取部基于{F1~FN}提取出多尺度语音特征G'm,然后通过状态空间网络部对G'm进行长期建模以得到长时特征IT,out,最后通过音频解码部结合{F1~FN}与IT,out解码重构出{Voice1,…,VoiceN}。本发明解决了现有语音分离方法面对长序列音频会出现建模局限而影响语音分离性能的问题。
-
公开(公告)号:CN119052387A
公开(公告)日:2024-11-29
申请号:CN202411135911.5
申请日:2024-08-19
Applicant: 安徽大学 , 安徽省安庆市中级人民法院 , 北京华宇信息技术有限公司
IPC: H04N1/44 , H04L9/40 , G06N3/0475 , G06N3/08
Abstract: 本发明涉及网络安全技术领域,具体涉及基于DQN的抑制图拆解的方法及系统。本发明将DQN算法应用到抑制图拆解,借助图深度学习的拟合能力和强化学习中DQN范式,使智能体在基于多张小规模生成图处理得到的虚拟节点中进行探索,从而使智能体学习到最优的攻击策略,进而应用到目标网络中找到需要隐藏的关键节点。经过仿真对比,本发明的方法相较于现有图对抗性攻击算法,在抑制图拆解任务时具有更好的效果。本发明解决了现有图对抗性攻击应用到抑制图拆解任务时效果不佳的问题。
-
公开(公告)号:CN119049495A
公开(公告)日:2024-11-29
申请号:CN202411518863.8
申请日:2024-10-29
Applicant: 安徽大学
IPC: G10L21/0208 , G10L25/30 , G06F18/25 , G06N3/0464 , G06F18/213
Abstract: 本发明属于语音处理技术领域,具体涉及一种融合声音和脑电信号的目标人物语音提取方法、系统和设备。该方法设计了一个包含脑电编码器、语音编码器、分离网络和语音解码器的语音分离模型,并利用训练好的语音分离模型执行目标人物的语音提取任务。其中,脑电编码器中包括一维卷积层和基于KAN的注意力层。语音编码器中包括一维卷积层和双向Mamba层。分离网络采用交叉注意力模块对提取出的语音特征和脑电特征进行特征融合,并对得到的融合特征进行解析得到目标人物语音的特征掩码。语音解码器利用特征掩码和语音特征重建出目标人物的纯净语音。本发明解决现有方案难以有效捕捉深层脑电特征和全局语音特征,重建出的目标人物语音的精度较差的问题。
-
公开(公告)号:CN118230752B
公开(公告)日:2024-10-25
申请号:CN202410139135.X
申请日:2024-01-31
Applicant: 安徽大学
IPC: G10L21/0272 , G10L25/30 , G10L15/25 , G10L15/16
Abstract: 本申请涉及一种语音分离模型的训练方法和装置、语音分离方法,语音分离模型包括教师模型和学生模型。其中,该语音分离模型的训练方法包括:获取相对应的样本音频数据和样本视频数据;通过样本音频数据和样本视频数据对教师模型进行监督训练;通过样本音频数据对学生模型进行监督训练,并在训练过程中通过训练后的教师模型对学生模型进行训练指导。通过上述语音分离模型的训练方法,最终得到高性能的学生模型。训练后的学生模型应用在实际语音分离场景中,可以准确地对单独的音频数据进行分离,而不需要相对应的视频数据进行辅助。因此,解决了现有的语音分离技术难以准确地对无同步视频数据的音频数据进行语音分离的问题。
-
公开(公告)号:CN118677093A
公开(公告)日:2024-09-20
申请号:CN202411172406.8
申请日:2024-08-26
Applicant: 安徽大学 , 国网安徽省电力有限公司宿州供电公司 , 国网安徽省电力有限公司
Inventor: 徐峰 , 贺威 , 王严 , 李坚林 , 訾泉 , 谢佳 , 谢铖 , 杨东 , 赵琛 , 徐晓 , 王楠楠 , 常青春 , 张功营 , 赵敏 , 王宜福 , 孙红松 , 曹飞翔 , 陈兆 , 徐琦睿 , 董海涛 , 黄侠 , 吕钊 , 李逸飞 , 李探 , 陈国平 , 陈勇 , 孙添一 , 征珂馨 , 姜丹琪 , 刘岗
Abstract: 本发明公开了一种基于超级电容储能的变电站直流电源运行管理方法及系统,该方法包括:将基于超级电容储能的直流保障装置并联到直流母线上;当交流电正常供应时,直流保障装置给负载供电的同时,给超级电容补充放掉的电能;当交流电不能正常供应时,直流保障模块为直流母线提供供电需求;当超级电容的电压不能满足直流母线要求时,通过升压单元把超级电容的电压升高,以满足直流母线需求,本发明利用基于超级电容储能的直流保障装置实现对直流母线不间断提供可靠的直流电源,提高了直流系统运行的安全可靠性。
-
公开(公告)号:CN118197346A
公开(公告)日:2024-06-14
申请号:CN202410155031.8
申请日:2024-02-02
Applicant: 安徽大学
IPC: G10L21/028 , G10L21/0308 , G10L25/30 , G10L19/008
Abstract: 本发明公开了一种基于多尺度语音‑脑电融合的脑控说话人提取方法及系统。该方法包括:S1、语音编码器将原始混合语音样本转化为具有不同时间分辨率的语音特征;S2、脑电编码器将多通道的脑电信号编码到低维的特征表达,并利用图卷积网络提取脑电数据;S3、在说话人提取网络模块中分别融合多尺度语音和脑电的双模态特征,使用基于掩蔽的方法过滤掉干扰说话人;S4、语音解码器模块将掩蔽后的语音特征转化为原始的时域目标语音波形。本方法利用听者所记录的脑电信号来指导提取目标语音,使说话人提取方法具有根据个人主观意识有效分离目标说话人的能力,并将多尺度的语音特征和脑电特征分别进行融合,提高了语音的感知质量和可懂度。
-
公开(公告)号:CN118097491A
公开(公告)日:2024-05-28
申请号:CN202410062252.0
申请日:2024-01-16
Applicant: 安徽大学
Abstract: 本发明公开了一种基于非眼部区域视频的眼动识别算法及系统,该算法包括:S1、对用户进行眼部遮挡条件下的面部视频数据采集;S2、利用人脸检测算法获取人脸区域,并将不包含眼睛的眼部周边区域作为感兴趣区域ROI,并使用感兴趣区域跟踪算法在每帧图像中确定该检测区域;S3、对所得ROI图像序列进行降维和预处理,由ROI二维图像序列生成多通道原始观测数据;S4、利用ICA算法从多通道原始带噪观测信号中提取多种源信号,并从多通道输出信号中确定“纯净”的眼周变化信号;S5、使用高频增强算法对眼周变化信号进行增强,放大微弱的眼周变化信息;S6:使用深度学习算法对眼周变化信号进行训练识别。本发明解决了人眼遮挡情况下眼动信号识别难题。
-
-
-
-
-
-
-
-
-