一种非电费收入业财票协同管理方法及系统

    公开(公告)号:CN119809544A

    公开(公告)日:2025-04-11

    申请号:CN202411858351.6

    申请日:2024-12-17

    Abstract: 本发明公开了一种非电费收入业财票协同管理方法及系统,该方法包括接收业务部门提交的业务项目合同信息及文件;接收业务部门提交的开票申请;基于开票申请信息调用开票系统进行开票;接收财务部门的过账申请,针对用户选择的待过账发票进行过账,形成过账记录并生成应收凭证;接收财务部门的对账申请,对于非电费收入的银行流水进行对账核销,形成对账核销记录并生成收款凭证;接收业务部门提交的开票查询申请,所述查询申请包括查询发票开具情况、应收凭证制证情况、款项回收情况。本发明以业务管理基础,发票管理为主线,实现非电费收入业财票深度融合。

    一种基于神经谱信息跨电极表征学习的大脑年龄预测方法

    公开(公告)号:CN119302672B

    公开(公告)日:2025-04-04

    申请号:CN202411852205.2

    申请日:2024-12-16

    Applicant: 安徽大学

    Abstract: 本发明公开了一种基于神经谱信息跨电极表征学习的大脑年龄预测方法,包括:对被试的多电极通道中的每一电极通道的EEG数据进行预处理,得到1‑20Hz频率下的功率谱密度PSD;利用1‑20Hz频率下的PSD计算每一电极通道的脑电神经谱特征,包括非周期参数AF、周期参数PF、功率比PR、相对能量RE和峰度KUR;将每一电极通道的上述脑电神经谱特征作为单电极自身独立表征的频谱信息,通过稀疏线性回归方法刻画出所有电极神经谱特征的跨电极互相表征的相似性关系矩阵;最后,构建全连接多层神经网络,学习被试的单电极神经谱特征和电极间神经谱特征表征的相似性矩阵与大脑年龄之间的映射关系,根据上述跨电极神经谱特征和神经网络预测被试的大脑年龄。

    融合声音和脑电信号的目标人物语音提取方法、装置

    公开(公告)号:CN119049495B

    公开(公告)日:2025-01-28

    申请号:CN202411518863.8

    申请日:2024-10-29

    Applicant: 安徽大学

    Abstract: 本发明属于语音处理技术领域,具体涉及一种融合声音和脑电信号的目标人物语音提取方法、系统和设备。该方法设计了一个包含脑电编码器、语音编码器、分离网络和语音解码器的语音分离模型,并利用训练好的语音分离模型执行目标人物的语音提取任务。其中,脑电编码器中包括一维卷积层和基于KAN的注意力层。语音编码器中包括一维卷积层和双向Mamba层。分离网络采用交叉注意力模块对提取出的语音特征和脑电特征进行特征融合,并对得到的融合特征进行解析得到目标人物语音的特征掩码。语音解码器利用特征掩码和语音特征重建出目标人物的纯净语音。本发明解决现有方案难以有效捕捉深层脑电特征和全局语音特征,重建出的目标人物语音的精度较差的问题。

    结合声学特征和状态空间模型的语音分离方法及系统

    公开(公告)号:CN119360878A

    公开(公告)日:2025-01-24

    申请号:CN202411897514.1

    申请日:2024-12-23

    Applicant: 安徽大学

    Abstract: 本发明涉及语音分离技术领域,具体涉及结合声学特征和状态空间模型的语音分离方法及系统。本发明为了实现语音分离提供了一种语音分离模型,其首先通过音频编码部对混合语音Voicemix进行编码以得到N种不同分辨率的音频特征{F1~FN},接着通过声学特征提取部基于{F1~FN}提取出多尺度语音特征G'm,然后通过状态空间网络部对G'm进行长期建模以得到长时特征IT,out,最后通过音频解码部结合{F1~FN}与IT,out解码重构出{Voice1,…,VoiceN}。本发明解决了现有语音分离方法面对长序列音频会出现建模局限而影响语音分离性能的问题。

    融合声音和脑电信号的目标人物语音提取方法、装置

    公开(公告)号:CN119049495A

    公开(公告)日:2024-11-29

    申请号:CN202411518863.8

    申请日:2024-10-29

    Applicant: 安徽大学

    Abstract: 本发明属于语音处理技术领域,具体涉及一种融合声音和脑电信号的目标人物语音提取方法、系统和设备。该方法设计了一个包含脑电编码器、语音编码器、分离网络和语音解码器的语音分离模型,并利用训练好的语音分离模型执行目标人物的语音提取任务。其中,脑电编码器中包括一维卷积层和基于KAN的注意力层。语音编码器中包括一维卷积层和双向Mamba层。分离网络采用交叉注意力模块对提取出的语音特征和脑电特征进行特征融合,并对得到的融合特征进行解析得到目标人物语音的特征掩码。语音解码器利用特征掩码和语音特征重建出目标人物的纯净语音。本发明解决现有方案难以有效捕捉深层脑电特征和全局语音特征,重建出的目标人物语音的精度较差的问题。

    语音分离模型的训练方法和装置、语音分离方法

    公开(公告)号:CN118230752B

    公开(公告)日:2024-10-25

    申请号:CN202410139135.X

    申请日:2024-01-31

    Applicant: 安徽大学

    Abstract: 本申请涉及一种语音分离模型的训练方法和装置、语音分离方法,语音分离模型包括教师模型和学生模型。其中,该语音分离模型的训练方法包括:获取相对应的样本音频数据和样本视频数据;通过样本音频数据和样本视频数据对教师模型进行监督训练;通过样本音频数据对学生模型进行监督训练,并在训练过程中通过训练后的教师模型对学生模型进行训练指导。通过上述语音分离模型的训练方法,最终得到高性能的学生模型。训练后的学生模型应用在实际语音分离场景中,可以准确地对单独的音频数据进行分离,而不需要相对应的视频数据进行辅助。因此,解决了现有的语音分离技术难以准确地对无同步视频数据的音频数据进行语音分离的问题。

    基于多尺度语音-脑电融合的脑控说话人提取方法及系统

    公开(公告)号:CN118197346A

    公开(公告)日:2024-06-14

    申请号:CN202410155031.8

    申请日:2024-02-02

    Applicant: 安徽大学

    Abstract: 本发明公开了一种基于多尺度语音‑脑电融合的脑控说话人提取方法及系统。该方法包括:S1、语音编码器将原始混合语音样本转化为具有不同时间分辨率的语音特征;S2、脑电编码器将多通道的脑电信号编码到低维的特征表达,并利用图卷积网络提取脑电数据;S3、在说话人提取网络模块中分别融合多尺度语音和脑电的双模态特征,使用基于掩蔽的方法过滤掉干扰说话人;S4、语音解码器模块将掩蔽后的语音特征转化为原始的时域目标语音波形。本方法利用听者所记录的脑电信号来指导提取目标语音,使说话人提取方法具有根据个人主观意识有效分离目标说话人的能力,并将多尺度的语音特征和脑电特征分别进行融合,提高了语音的感知质量和可懂度。

    一种基于非眼部区域视频的眼动识别算法及系统

    公开(公告)号:CN118097491A

    公开(公告)日:2024-05-28

    申请号:CN202410062252.0

    申请日:2024-01-16

    Applicant: 安徽大学

    Abstract: 本发明公开了一种基于非眼部区域视频的眼动识别算法及系统,该算法包括:S1、对用户进行眼部遮挡条件下的面部视频数据采集;S2、利用人脸检测算法获取人脸区域,并将不包含眼睛的眼部周边区域作为感兴趣区域ROI,并使用感兴趣区域跟踪算法在每帧图像中确定该检测区域;S3、对所得ROI图像序列进行降维和预处理,由ROI二维图像序列生成多通道原始观测数据;S4、利用ICA算法从多通道原始带噪观测信号中提取多种源信号,并从多通道输出信号中确定“纯净”的眼周变化信号;S5、使用高频增强算法对眼周变化信号进行增强,放大微弱的眼周变化信息;S6:使用深度学习算法对眼周变化信号进行训练识别。本发明解决了人眼遮挡情况下眼动信号识别难题。

Patent Agency Ranking