-
公开(公告)号:CN111352954B
公开(公告)日:2021-02-12
申请号:CN202010110929.5
申请日:2020-02-20
Applicant: 中国科学院自动化研究所
IPC: G06F16/2455 , G06F16/2458 , G06F16/28
Abstract: 本发明属于数据挖掘领域,具体涉及一种低资源条件下的关联规则挖掘方法、系统、装置,旨在解决现有的关联规则挖掘方法无法在低内存下完整的低频关联规则的挖掘的问题。本系统方法包括:获取待挖掘关联规则的数据集,对数据集各事务中的项进行数字化编码;获取高频频繁项集和高频关联规则;构建第一低频频繁项集和第二低频频繁项集;基于第一低频频繁项集、第二低频频繁项集,通过setdiff函数得到第三低频频繁项集,并根据第三低频频繁项集获取低频关联规则;输出高频关联规则、低频关联规则。本发明能够在低内存条件下挖掘完整的低频关联规则。
-
公开(公告)号:CN111081370A
公开(公告)日:2020-04-28
申请号:CN201911025480.6
申请日:2019-10-25
Applicant: 中国科学院自动化研究所
Abstract: 本申请提供了一种用户分类方法及装置,属于数据处理技术领域。本申请通过获取用户的身体状况信息,身体状况信息包括用户具有的身体状况和/或不具有的身体状况;针对数据集中的每个第一分类类型,基于该第一分类类型包含各身体状况的概率、以及身体状况信息,计算用户属于该第一分类类型的预测概率;按照各第一分类类型的预测概率对各第一分类类型进行排序,得到分类类型序列,计算分类类型序列的置信度;如果置信度大于第一置信度阈值,在各第一分类类型包含的典型身体状况中,确定用户具有的目标典型身体状况;将目标典型身体状况所属的第一分类类型,作为用户的分类结果,以解决相关技术中用户分类结果准确率低的问题。
-
公开(公告)号:CN110993097A
公开(公告)日:2020-04-10
申请号:CN201911230745.6
申请日:2019-12-05
Applicant: 中国科学院自动化研究所
IPC: G16H50/20 , G06F40/279
Abstract: 本发明涉及一种基于医学症状词汇的问诊方法及系统,所述问诊方法包括:对抓取的历史问诊的症状词汇按照患者的痛苦表现进行初次编码映射,得到初次映射信息;对所述初次映射信息进行多级编码映射,得到二次映射信息;对所述二次映射信息进行症状相关性分析,得到基于症状词汇的问诊模型;基于所述问诊模型,根据待问诊病人的症状词汇,确定所述待问诊病人的病情。本发明通过对历史问诊的症状词汇依次初次编码映射、多级编码映射,最终得到二次映射信息,并对所述二次映射信息进行症状相关性分析,得到基于症状词汇的问诊模型,基于所述问诊模型确定待问诊病人的病情,从而可提高智能问诊预测中症状词汇定位的准确性。
-
公开(公告)号:CN110911012A
公开(公告)日:2020-03-24
申请号:CN201911232673.9
申请日:2019-12-05
Applicant: 中国科学院自动化研究所
Abstract: 本发明涉及一种基于效用模型的个性化诊疗方法的确定方法及系统,所述确定方法包括:对历史用户病症特征数据进行预处理,得到用户特征;基于粒子群算法,根据所述历史用户病症数据,构建改善方法的效用矩阵;根据所述效用矩阵及所述用户特征和当前用户的需求,得到针对该当前用户的个性化诊疗方法。本发明通过对多症状特征数据进行降维和归一化处理;并通过粒子群算法构建改善方法效用矩阵;根据效用矩阵、历史用户病症数据得到总效用值,根据历史改善情况调整判断改善效果阈值;根据历史病症情况数据调整决策策略为成本最低时的阈值,从而可有效确定针对该当前用户的个性化诊疗方法。
-
公开(公告)号:CN109582953A
公开(公告)日:2019-04-05
申请号:CN201811302326.4
申请日:2018-11-02
Applicant: 中国科学院自动化研究所
IPC: G06F17/27 , G06F16/9535
Abstract: 本发明公开了一种资讯的言据支撑评分方法、设备和存储介质。该方法包括:对资讯库中的所有资讯分别进行深度语义向量编码;根据每个所述资讯的深度语义向量,计算所有资讯两两之间的相似度,得到语义相似度矩阵;根据所述语义相似度矩阵,构建语义网络;根据预设的随机游走模型,对所述语义网络中每个节点对应的资讯进行言据支撑评分。本发明的立足点在于评价资讯中观点的可靠性,对资讯进行深度语言向量编码,通过计算资讯两两之间的相似度,构建语义网络,进而可以计算出每个资讯的言据支撑评分,本发明准确性高,并且可以有效降低人力成本。
-
公开(公告)号:CN109558586A
公开(公告)日:2019-04-02
申请号:CN201811302282.5
申请日:2018-11-02
Applicant: 中国科学院自动化研究所
IPC: G06F17/27 , G06F16/9535
Abstract: 本发明公开了一种资讯的言据自证评分方法、设备和存储介质。该方法包括:对资讯库中的所有资讯分别进行深度语义向量编码;根据每个资讯的深度语义向量,计算所有资讯两两之间的相似度,得到语义相似度矩阵;根据语义相似度矩阵,构建语义网络;在语义网络的中心节点对应的资讯中,提取关键词和主题,作为资讯库的关键词和主题;对资讯库的关键词和主题进行深度语义向量编码;分别计算资讯库中每个资讯的深度语义向量和资讯库的深度语义向量之间的相似度,作为资讯库中每个资讯的言据自证评分。本发明依靠待评价资讯自身提供的证据来评价资讯的可靠性,可以有效降低资讯可靠性识别的人力成本,提高资讯可靠性识别的准确性。
-
公开(公告)号:CN104200235A
公开(公告)日:2014-12-10
申请号:CN201410363723.8
申请日:2014-07-28
Applicant: 中国科学院自动化研究所
Abstract: 本发明公开了一种基于线性动态系统的时空局部特征提取方法,该方法包括以下步骤:步骤1:收集待处理的视频数据文件;步骤2:对于待处理的视频数据文件,提取三维时空局部特征;步骤3:对于每一个三维时空局部特征,沿空间维度展开得到二维时空局部特征;步骤4:将二维时空局部特征Y作为线性动态系统的输出,学习得到线性动态系统的模型参数,作为所述二维时空局部特征Y的描述子。本发明提取的描述子能够同时表达时空局部特征的静态表观信息和运动信息,可以广泛应用在视频内容检索,敏感视频检测与过滤以及智能视频监控等业务中。
-
公开(公告)号:CN119580333B
公开(公告)日:2025-05-02
申请号:CN202510127478.9
申请日:2025-01-27
Applicant: 中国科学院自动化研究所
Abstract: 本公开关于人脸图像鉴伪模型的训练方法、人脸图像鉴伪方法和装置,包括:提取训练样本图像中多个类型的指定特征;将多个类型的指定特征进行拼接;将指定拼接特征分别输入多个特征提取模块;利用每个特征提取模块输出的模型提取特征进行融合;将融合特征输入全连接层以预测训练样本图像的真伪;基于真实类别标签、预测结果和融合特征,计算损失;通过根据损失调整每个特征提取模块的参数。这样,通过预先从不同角度设计有针对性的指定特征,可以实现提高特征提取的全面性和丰富性。另外,还可以通过综合不同特征提取模块的优势来提高特征表示的鲁棒性和多样性,从而可以更好地应对复杂和多变的鉴伪场景。
-
公开(公告)号:CN119399029B
公开(公告)日:2025-04-08
申请号:CN202510013541.6
申请日:2025-01-06
Applicant: 中国科学院自动化研究所
IPC: G06T3/4053 , G06N3/084 , G06N3/0895
Abstract: 本发明公开了一种基于解耦对比学习的隐式图像退化估计方法,属于图像盲超分辨率技术领域,所述方法采样具有相同退化信息的不同LR图像中的图块来构建正样本集合,在数据层面保障了内容、纹理等任务无关信息不会影响退化特征学习,同时,通过不断地循环配对采样图块来实现数据扩增;在训练过程中引入特征增强策略增加相同退化类型的正样本数量,从而在训练过程中进一步扩展每个退化类别的样本多样性,以保障网络更充分的学习退化信息。将利用本发明训练的隐式图像退化估计器应用于基于隐式退化特征引导的盲图像超分辨率网络,可以有效提升LR图像的退化信息建模质量,进而改善LR图像到HR图像的重建效果。
-
公开(公告)号:CN118133241B
公开(公告)日:2024-09-13
申请号:CN202410552190.1
申请日:2024-05-07
Applicant: 中国科学院自动化研究所
IPC: G06F18/27 , G06F18/213 , G06N3/0455 , G06N3/0895 , G06N3/096
Abstract: 本发明涉及多模态技术领域,提供一种多模态预训练模型的训练方法、装置、设备和存储介质,包括:构建多模态预训练模型,包括视觉编码器、多语言编码器以及英文解码器;基于图像‑英文文本数据获取第一损失函数;基于多语言文本‑英文文本数据获取第二损失函数;基于目标文本‑图像数据应用于视觉编码器与多语言编码器进行对比学习获取第三损失函数;基于目标文本‑图像数据的相似度矩阵获取强负样本数据,基于强负样本数据与正样本数据应用于英文解码器获取第四损失函数;基于第一损失函数、第二损失函数、第三损失函数以及第四损失函数,得到训练好的多模态预训练模型。本发明既有效缓解对多语言‑图像数据的依赖,又直接有效的利用视觉特征。
-
-
-
-
-
-
-
-
-