基于Transfomer和渐进式蒸馏的知识图谱补全方法、系统、装置

    公开(公告)号:CN118069857A

    公开(公告)日:2024-05-24

    申请号:CN202311522595.2

    申请日:2023-11-15

    Applicant: 安徽大学

    Abstract: 本发明属于人工智能技术领域,具体涉及一种基于Transfomer和渐进式蒸馏的知识图谱补全方法、系统和装置。该方案包括:一、获取由大量三元组向量构成的用于模型训练的样本数据集;二、将样本数据集进行重度掩码处理,用于对基于Transfomer的语言模型进行预训练;三、将经过预训练的语音模型作为教师模型,教师模型精简后作为学生模型,构建自监督学习框架;四、对教师模型和学生模型进行渐进式蒸馏;每一轮的渐进式蒸馏过程中,均降低样本数据的掩码率,同时,将学生模型作为教师模型,并将学生模型精简后作为下一轮的学生模型。最后保存满足精度和轻量化的模型用户后续的知识图谱补全任务。本发明解决现有语言模型参数过大,无法满足轻量化应用要求的问题。

    基于自我知识蒸馏的虚假音频检测方法及其系统

    公开(公告)号:CN116312628A

    公开(公告)日:2023-06-23

    申请号:CN202310135374.3

    申请日:2023-02-09

    Applicant: 安徽大学

    Abstract: 本发明公开了一种基于自我知识蒸馏的虚假音频检测方法,包括以下步骤:S1:提取原始语音波形的对数功率谱特征的F0子带作为虚假音频检测的输入特征;S2:采用深度神经网络对输入特征进行建模,计算标签和网络输出的损失,用以提取训练集的隐藏知识;S3:划分网络,计算所有浅层网络和最深层网络预测输出的损失,将最深层网络作为教师模型,浅层网络后端添加分类器构成学生模型,教师模型根据预测结果指导学生模型,用以增强浅层网络;S4:在特征维度,教师模型蒸馏知识到学生模型,用以平衡深浅层网络的特征差异。还公开了一种基于自我知识蒸馏的虚假音频检测系统。本发明能够显著提高虚假音频检测的准确率。

    一种基于FMCW技术对温度鲁棒的液体识别方法

    公开(公告)号:CN116067990A

    公开(公告)日:2023-05-05

    申请号:CN202310144109.1

    申请日:2023-02-21

    Applicant: 安徽大学

    Abstract: 本发明公开了一种基于FMCW技术对温度鲁棒的液体识别方法,涉及液体识别技术领域。一种基于FMCW技术对温度鲁棒的液体识别方法,包括以下步骤:将待测液体放置在收发机前方;毫米波雷达发射调频连续波信号;接收由待测液体反射回的信号;消除硬件自身的直流分量的干扰;提取液体信息;提取对温度鲁棒的液体特征;实现液体识别。本发明提出的一种基于FMCW技术对温度鲁棒的液体识别方法,通过FMCW毫米波雷达持续不断地发射chirp信号,接收由待测液体反射回的信号,并对信号进行滤波,去除直流分量,提取液体信息,获得待测液体的毫米波谱,对毫米波谱进行简化量化,从而得到对温度波动具有鲁棒性的液体特征,进而实现识别液体。

    基于眼动信息的视觉增强感知系统及其方法

    公开(公告)号:CN109815913B

    公开(公告)日:2022-12-20

    申请号:CN201910080543.1

    申请日:2019-01-28

    Applicant: 安徽大学

    Abstract: 本发明公开了一种基于眼动信息的视觉增强感知系统,主要包括眼动信息采集模块、眼动信息检测模块、系统标定模块、球机驱动模块。系统实施主要包括以下步骤:1)在标定屏幕上人工标定n2个点,设定这n2个点的坐标;2)使用红外摄像头采集对象注视标定点的人眼视频并对视频帧进行预处理;3)将预处理后的视频通过质心法获得瞳孔中心;4)计算标定点的坐标和瞳孔中心坐标的映射关系;5)每一次注视的瞳孔坐标使用映射关系映射为观察平面坐标;6)将观察平面坐标相对于坐标原点的偏移角度传入球机,驱动球机转动。本发明方法简单、眼动跟踪精度高,实现对人类视觉感知的增强。

    结合集成学习与独立分量分析的运动想象分类方法

    公开(公告)号:CN112016415B

    公开(公告)日:2022-11-29

    申请号:CN202010818947.9

    申请日:2020-08-14

    Applicant: 安徽大学

    Abstract: 本发明公开了一种结合集成学习与独立分量分析的运动想象分类方法,基于不同的单次试验数据构造ICA空域滤波器对数据进行空域滤波与特征提取,并使用简单分类规则构造不同的基分类器,进而运用集成学习的投票法结合策略构成新的运动想象脑电信号分类器。本发明设计的集成分类器具有较稳定的识别率,多个基分类器集成学习分类,可以获得比单一分类器更优越的泛化性能,提高EEG信号的分类识别率。在不同受试者之间和同一受试者的不同时期采集的数据的迁移测试中,也体现较稳定的性能,具有更好的实用性。

    基于眼电信号的办公场景人机交互行为识别方法

    公开(公告)号:CN108491792B

    公开(公告)日:2022-07-12

    申请号:CN201810236528.7

    申请日:2018-03-21

    Applicant: 安徽大学

    Abstract: 本发明公开了一种基于眼电信号的办公场景人机交互行为识别方法,包括以下步骤:首先采集不同行为状态下的眼电信号,并对采集到的眼电信号进行预处理;其次通过端点检测,识别出滤波后的眼电信号中有效行为状态的起始点和终止点;得到有效的眼电信号后,再通过小波变换对信号进行特征提取,并利用线性判别分析方法对提取到的特征参数进行降维;然后利用支持向量机对降维后的特征进行分类,识别出正确的行为;最后将识别出的结果用于控制手机上的应用软件。本发明识别正确率高、鲁棒性好、应用潜力大,能够更好的利用眼球运动信息控制外部设备,丰富眼动控制类别的多样性,具有扩展性强、识别正确率高、前景良好的优点。

    一种基于双模态分类模型融合的扫视信号识别方法及系统

    公开(公告)号:CN107480635B

    公开(公告)日:2020-09-18

    申请号:CN201710695421.4

    申请日:2017-08-15

    Applicant: 安徽大学

    Abstract: 本发明公开了一种基于双模态分类模型融合的扫视信号识别方法及系统,属于眼电图技术领域,方法包括:同步采集受试者不同扫视动作类别的EOG数据和视频数据;对EOG数据和视频数据分别进行预处理;对EOG数据和视频数据进行端点检测;选择EOG数据端点检测结果和视频数据端点检测结果中有效数据较长端点作为最终的端点检测结果;将两种模态下的有效眼动数据段分成训练集和测试集并进行特征参数提取;将两种模态下有效眼动数据特征参数送入SVM分类器中进行训练,得到两种分类模型;对两种分类模型进行融合;利用测试集中的数据对模型融合进行测试以对扫视信号进行识别。本发明中融合后的特征具有更多互补信息,提高了信号识别鲁棒性。

    一种鲁棒扫视EOG信号识别方法及系统

    公开(公告)号:CN107348958B

    公开(公告)日:2019-12-24

    申请号:CN201710695426.7

    申请日:2017-08-15

    Applicant: 安徽大学

    Abstract: 本发明公开了一种鲁棒扫视EOG信号识别方法及系统,属于眼电技术领域,方法包括对EOG多通道眼动数据进行采集,获得时域上的眼动数据;对时域上的眼动数据进行预处理得到频域上的眼动数据;在频域上采用复值ICA算法对眼动数据进行盲源分离,得到各源信号在相应频点上的频域独立分量;对各频点独立分量进行补偿,还原独立分量在观测分量中的真实比例,通过约束DOA算法解决排序模糊问题;对补偿后和排序后的各频点的独立分量进行短时傅里叶逆变换处理,恢复为时域的多通道眼动数据;对时域上的多通道眼动数据进行提取功率谱密度特征,并将提取的特征送入支持向量机SVM中进行识别。本发明能准确对EOG信号进行识别。

    基于眼动信息的视觉增强感知系统及其方法

    公开(公告)号:CN109815913A

    公开(公告)日:2019-05-28

    申请号:CN201910080543.1

    申请日:2019-01-28

    Applicant: 安徽大学

    Abstract: 本发明公开了一种基于眼动信息的视觉增强感知系统,主要包括眼动信息采集模块、眼动信息检测模块、系统标定模块、球机驱动模块。系统实施主要包括以下步骤:1)在标定屏幕上人工标定n2个点,设定这n2个点的坐标;2)使用红外摄像头采集对象注视标定点的人眼视频并对视频帧进行预处理;3)将预处理后的视频通过质心法获得瞳孔中心;4)计算标定点的坐标和瞳孔中心坐标的映射关系;5)每一次注视的瞳孔坐标使用映射关系映射为观察平面坐标;6)将观察平面坐标相对于坐标原点的偏移角度传入球机,驱动球机转动。本发明方法简单、眼动跟踪精度高,实现对人类视觉感知的增强。

    基于二阶盲辨识的非接触式眨眼与心率联合检测系统及方法

    公开(公告)号:CN106096544B

    公开(公告)日:2019-04-23

    申请号:CN201610404549.6

    申请日:2016-06-02

    Applicant: 安徽大学

    Abstract: 本发明涉及一种基于二阶盲辨识的非接触式眨眼与心率联合检测系统及方法,在受试者自然放松的状态下采集包含眼睛的面部视频数据,采集原始视频数据后选定检测面部区域并对所选视频数据进行预处理,得到预处理后的六通道信号,标记为x=[xR1,xR2,xG1,xG2,xB1,xB2]T;使用Meanshift算法得到连续帧中的目标区域,并以同样的方法获取六通道信号;将经过预处理后的原始信号作为输入信号,使用二阶盲辨识算法进行盲源分离,将分离后的源信号记为y=[y1,y2,y3,y4,y5,y6]T;对上述步骤S101中得到的分离信号y进行信号辨识与筛选,使用基于谱峭度的分离分量自动识别方法选出所需的眨眼和BVP信号;对得到的眨眼信号进行眨眼频率和时长计算,并对得到的BVP信号进行功率谱谱分析,得到心率估计值,本发明具有准确度高、抗干扰能力强、算法效率高等优点。

Patent Agency Ranking