-
公开(公告)号:CN113467881B
公开(公告)日:2021-11-16
申请号:CN202111019386.7
申请日:2021-09-01
Applicant: 南方电网数字电网研究院有限公司
Abstract: 本申请涉及一种图表样式自动化调整方法、装置、计算机设备和存储介质。本申请能够在无需对大量训练样本事先标注的情况下自动学习并提取训练样本中的特征,生成与特征因子对应的概率分布,并能根据用户的需求实现对图表的样式自动化调整,例如对图表的像素颜色、数值范围、编号和排序的统一调整,进一步提高工作、生产和学习效率。该方法包括:获取待处理图表集合;利用预先构建的深度变分自编码器模型对待处理图表集合进行因子提取,得到待处理图表集合的低维因子表征分布;响应于对待处理集合图表中的指定图表的调整指令,基于低维因子表征分布,利用预先构建的深度变分自编码器模型对指定图表进行因子表征调整,得到相应的重构图表。
-
公开(公告)号:CN109510840B
公开(公告)日:2021-07-13
申请号:CN201811584840.1
申请日:2018-12-24
Applicant: 中国南方电网有限责任公司 , 南方电网数字电网研究院有限公司
IPC: H04L29/06 , H04L9/08 , G06F16/903
Abstract: 本申请涉及一种非结构化数据的共享方法、系统、计算机设备和存储介质。所述方法包括:接收终端发送的数据共享请求信息,数据共享请求信息携带有当前用户信息,当前用户信息为当前数据请求用户的用户信息;根据当前用户信息确定目标数据范围,目标数据范围为当前数据请求用户能够获得的非结构化数据的数据范围;根据数据共享请求信息以及目标数据范围,获取目标响应数据的目标密文数据,将目标密文数据返回给终端;在接收到终端返回的目标密文数据的接收完成信息时,将目标密文数据的目标解密因子发送给终端,目标解密因子用于解密目标密文数据得到目标响应数据。采用本方法能够提升数据安全性和共享实时性。
-
公开(公告)号:CN112735479B
公开(公告)日:2021-07-06
申请号:CN202110352926.7
申请日:2021-03-31
Applicant: 南方电网数字电网研究院有限公司
Abstract: 本申请涉及一种语音情绪识别方法、装置、计算机设备和存储介质。所述方法包括:获取待识别的客户语音数据;通过对客户语音数据进行特征提取,得到语音特征集;对语音特征集中的语音特征进行组合拼接,得到客户语音数据对应的语音特征向量;通过训练好的语音情绪识别模型对语音特征向量进行识别,得到客户语音数据对应的语音情感类别;语音情绪识别模型包括卷积神经网络和长短期记忆网络。采用本方法能够提高语音情绪识别的准确性。
-
公开(公告)号:CN112735479A
公开(公告)日:2021-04-30
申请号:CN202110352926.7
申请日:2021-03-31
Applicant: 南方电网数字电网研究院有限公司
Abstract: 本申请涉及一种语音情绪识别方法、装置、计算机设备和存储介质。所述方法包括:获取待识别的客户语音数据;通过对客户语音数据进行特征提取,得到语音特征集;对语音特征集中的语音特征进行组合拼接,得到客户语音数据对应的语音特征向量;通过训练好的语音情绪识别模型对语音特征向量进行识别,得到客户语音数据对应的语音情感类别;语音情绪识别模型包括卷积神经网络和长短期记忆网络。采用本方法能够提高语音情绪识别的准确性。
-
公开(公告)号:CN109711556B
公开(公告)日:2020-11-03
申请号:CN201811584982.8
申请日:2018-12-24
Applicant: 中国南方电网有限责任公司 , 南方电网数字电网研究院有限公司
Abstract: 本申请涉及一种机巡数据处理方法、装置、网级服务器、省级服务器和可读存储介质。所述方法包括:网级服务器获取各省级服务器发送的各省级的机器学习子模型的参数;各省级的机器学习子模型的参数是各省级服务器分别根据各省级的机巡数据训练样本,对预设的初始机器学习模型进行训练得到的;对各省级的机器学习子模型的参数进行联合处理,得到初始机器学习模型的目标参数;目标参数与多个省级的机巡数据训练样本相关;将目标参数分发给各省级服务器。采用本方法相当于变相地通过各省级的机巡数据训练样本对虚拟共有的初始机器学习模型进行训练得到目标参数,而无需集中各省级的机巡数据训练样本等机巡数据。
-
公开(公告)号:CN114091122A
公开(公告)日:2022-02-25
申请号:CN202210076263.5
申请日:2022-01-21
Applicant: 南方电网数字电网研究院有限公司
IPC: G06F21/64
Abstract: 本申请涉及一种网站防篡改方法、装置、计算机设备和存储介质。所述方法包括:获取网站的每一目录文件夹的原始属性信息和每一目录文件夹下的原始网页数据,并将每一目录文件夹的原始属性信息和每一目录文件夹下的原始网页数据存储至区块链系统,由区块链系统为每一原始网页数据生成唯一对应的查询ID;根据每一目录文件夹的原始属性信息,确定被篡改的原始网页数据最邻近的目录文件夹,并确定最邻近的目录文件夹下被篡改的原始网页数据;根据被篡改的原始网页数据对应的查询ID和区块链系统中存储的原始网页数据,对被篡改的原始网页数据进行恢复。采用本方法能够降低原始网页数据的扫描时间,进而提高网站防篡改的效率。
-
公开(公告)号:CN113569736A
公开(公告)日:2021-10-29
申请号:CN202110858245.8
申请日:2021-07-28
Applicant: 南方电网数字电网研究院有限公司
Abstract: 本申请涉及一种刀闸状态识别方法、装置、计算机设备和存储介质。该方法包括:获取目标刀闸的图像,并将目标刀闸的图像输入至预设的分割网络中,得到目标刀闸的刀闸主体区域图像;目标刀闸的图像为图像采集设备在预设位姿状态下采集的;根据刀闸主体区域图像,获取目标刀闸的主体拟合刀闸线;根据主体拟合刀闸线和预设的刀闸状态标定线,确定目标刀闸所处的状态。如此,通过分割网络从目标刀闸的图像中分割出刀闸主体区域图像,准确识别目标刀闸的同时,提高了刀闸主体区域的定位精度。进一步地,从刀闸主体区域图像中获取主体拟合刀闸线,通过与预设的刀闸状态标定线进行对比来判断目标刀闸所处的状态,提高了刀闸状态识别的准确度。
-
公开(公告)号:CN109660455B
公开(公告)日:2021-06-22
申请号:CN201811590030.7
申请日:2018-12-25
Applicant: 中国南方电网有限责任公司 , 南方电网数字电网研究院有限公司
Abstract: 本申请涉及一种机巡数据存储方法、装置、系统、网关设备和存储介质。所述方法包括:接收目标机巡数据,目标机巡数据为第一存储服务器集群对应的机巡设备的机巡数据;提取目标机巡数据的元数据,根据目标机巡数据的元数据确定存储目标机巡数据的第一存储服务器,第一存储服务器为第一存储服务器集群中的存储服务器;向第一存储服务器发送第一存储指示信息,第一存储指示信息用于指示第一存储服务器存储目标机巡数据,并指示第一存储服务器将目标机巡数据的元数据、第一存储服务器的信息和目标机巡数据在第一存储服务器的存储位置信息,发送给网级应用服务器进行绑定存储。采用本方法能够既能够实现全网统一管理机巡数据又能够节约带宽成本。
-
公开(公告)号:CN112565333A
公开(公告)日:2021-03-26
申请号:CN202011210831.3
申请日:2020-11-03
Applicant: 南方电网数字电网研究院有限公司 , 中国南方电网有限责任公司
Abstract: 本发明公开了一种基于kafka‑connect的数据传递方法,包括:生成与源kafka的topic对应的kafka‑connector,并通过kafka‑connector生成对应的task任务;task任务监听该源kafka的topic是否有数据变化;如果确定task任务监听该源kafka的topic有数据变化,则判断源kafka是否与目标kafka联通;如果源kafka与目标kafka联通,执行推送数据到目标kafka的逻辑,并通过kafka‑connector记录对应的推送位置。通过上述方式,本发明所公开的基于kafka‑connect的数据传递方法能够使得信息数据的推送效率高,接近于实时推送,而且会自动记录推送的位置,在断开之后重新连接,会在对应的位置重新续上,大大提升了用户的体验。
-
公开(公告)号:CN113642716B
公开(公告)日:2024-06-25
申请号:CN202111013553.7
申请日:2021-08-31
Applicant: 南方电网数字电网研究院有限公司
IPC: G06N3/0455 , G06N3/08
Abstract: 本申请涉及一种深度变分自编码器模型训练方法、装置、计算机设备和存储介质。本申请能够利用可视化图表训练样本对预先构建的深度变分自编码模型进行训练,不需要对图表进行事先标注就可以使得模型自动学习可视化图表训练样本中有价值的特征因子,提高了模型的泛化能力。该方法包括:获取可视化图表训练样本,以及预先构建的深度变分自编码器模型骨架;确定潜变量空间的维度和潜变量空间的因子先验分布;基于维度和因子先验分布,利用可视化图表训练样本对预先构建的深度变分自编码器模型骨架进行训练,以使深度变分自编码器模型骨架生成的重构图表概率分布与可视化图表训练样本的原始概率分布趋于一致,得到训练好的深度变分自编码器模型。
-
-
-
-
-
-
-
-
-