-
公开(公告)号:CN114035679B
公开(公告)日:2023-11-17
申请号:CN202111246696.2
申请日:2021-10-26
IPC: G06F3/01
Abstract: 本发明公开了一种可动态重组的脑神经信号并行解码装置和方法,包括:交互控制平台发布控制命令、配置参数,接收计算主控子系统反馈的脑神经信号解码结果;计算主控子系统依据控制命令和配置参数对脑神经信号进行分析,依据分析结果生成解码任务,并依据并行计算子系统的负载状况动态分配解码任务至并行计算子系统;接收并行计算子系统反馈的脑神经信号解码结果;并行计算子系统动态重组到计算主控子系统,依据解码任务生成与解析任务适配的解码算法链,利用解码算法链执行解码任务,得到脑神经信号解码结果;神经反馈装置将从计算主控子系统获得脑神经信号解码结果转换为刺激信号并反馈作用于采集对象,这样实现了脑神经信号的高性能并行解码。
-
公开(公告)号:CN116701031A
公开(公告)日:2023-09-05
申请号:CN202310575528.0
申请日:2023-05-19
Applicant: 浙江大学滨江研究院 , 杭州熔合智造科技有限公司
Abstract: 本发明提供了一种微服务系统中的根因模型分析方法,属于云计算技术领域。它解决了现有的方法对于开发人员来说,准确性较低等问题。本微服务系统中的根因模型分析方法包括以下步骤:步骤S5:收集目标系统的分布式跟踪日志数据,通过所述的分布式跟踪数据进行构建,确定潜在异常节点;步骤S6:收集目标系统的日志,并对所述日志进行处理,提取事件和参数,确定异常事件;步骤S7:基于所述的潜在异常节点和异常事件进行故障根因分析处理,获得分析结果。本发明具有简化了微服务系统中的定位故障的根本原因的运维成本,使得运维人员能够更快的发现系统中存在的根本原因等优点。
-
公开(公告)号:CN116681951A
公开(公告)日:2023-09-01
申请号:CN202310725428.1
申请日:2023-06-19
Applicant: 浙江大学滨江研究院
IPC: G06V10/764 , G16H50/20 , G06V10/774 , G06V10/40
Abstract: 本发明属于医疗影像工程和肺炎技术领域,具体涉及一种基于深度学习的肺炎X射线肺部图像分类系统,该系统包括:X射线肺部图像数据预处理模块;可变形卷积的互信息最大化模块包括互信息最大化网络和可变形特征提取网络:将肺部图像输入可变形特征提取网络,并通过互信息最大化网络计算输入图像和其高维特征的互信息;混合高阶矩特征模块:将肺部图像的高维特征作为输入,得到肺炎X射线肺部图像的混合高阶矩特征;多专家不确定检测模块:通过多专家诊断病症得到网络模型;例外病例收录模块:用于发现少数特殊病例。该系统在诊断时给予预测结果的不确定度,能有效减小误诊率并提高心室分类的准确度和效率,并具有较高的鲁棒性。
-
公开(公告)号:CN116407679A
公开(公告)日:2023-07-11
申请号:CN202310047226.6
申请日:2023-01-31
Abstract: 本发明公开了一种大尺寸多孔心肌补片及其制备方法和应用,本发明制备的大尺寸多孔心肌补片,尺寸的工艺稳定性好,产品不易收缩变形,力学性能稳定,生产周期由原来的几天缩短为几个小时;内部孔隙率高达91%。激光打孔补片与未打孔的补片相比,打孔补片更有利于细胞向补片内部的迁移、生长,从而有利于临床应用时促进补片上的血管生成,修复心功能。
-
公开(公告)号:CN116309333A
公开(公告)日:2023-06-23
申请号:CN202310090257.X
申请日:2023-02-09
Applicant: 浙江大学滨江研究院
IPC: G06T7/00 , G06T7/194 , G06V10/40 , G06V10/764 , G06V10/762 , G06V10/774 , G06V10/25 , G06T11/00 , G16H70/60 , G16H30/40
Abstract: 本发明公开了一种基于深度学习的WSI图像弱监督病理分析方法,包括:步骤1、对原始WSI图像中的前景区域和背景区域进行阈值分割操作,并以是否存在病变对原始WSI图像进行标签标注,保留前景区域中的图像内容,与对应的原始WSI图像以及对应的标签组成数据集;步骤2、构建用于强化分析WSI图像信息的神经网络,神经网络包括预处理模块,patch划分模块,特征提取与分析模块,注意力模块以及实例聚类模块;步骤3、对神经网络进行训练,获得WSI图像处理模型;步骤4、将待处理的WSI图像输入至WSI图像处理模型中,输出带有病理区域图像强化的WSI图像。本发明还提供一种WSI图像弱监督病理分析装置。本发明方法识别精度高,具有数据有效性、可解释性以及强适应性。
-
公开(公告)号:CN116298859A
公开(公告)日:2023-06-23
申请号:CN202211549170.6
申请日:2022-12-05
Applicant: 浙江大学滨江研究院 , 浙江大学医学院附属儿童医院
IPC: G01R31/34 , G01M13/025 , G01L3/00 , G01P3/44
Abstract: 本发明提供了一种磁力驱动性能测试试验台,属于磁力驱动技术领域。它解决了现有试验过程需要完整的装配人工心脏辅助装置,搭建辅助的测试系统,工作量繁重,且测试成本高等问题。本磁力驱动性能测试试验台包括主动磁力驱动系统、从动磁力转子系统和台架,主动磁力驱动系统包括主动永磁转子以及驱动主动永磁转子转动的驱动装置,从动磁力转子系统包括从动永磁转子、扭矩加载装置以及扭矩测量装置和转速测量装置,扭矩加载装置用于在从动永磁转子上施加一定扭矩负载,本发明具有降低人工心脏辅助装置体外磁力驱动性能测试过程的工作量、提高体外磁力驱动性能测试的测试效率、降低测试成本等优点。
-
公开(公告)号:CN116262941A
公开(公告)日:2023-06-16
申请号:CN202211562415.9
申请日:2022-12-07
IPC: C12Q1/6886 , G01N33/574 , G01N33/577 , C07K16/40
Abstract: 本发明涉及生物医药领域,公开了FAM227A作为肿瘤生物标志物的用途。本发明首次发现与正常组织相比,FAM227A在结直肠癌患者肿瘤组织中处于低表达状态,因此可作为结直肠癌的重要生物标志物之一;本发明还首次发现与正常人相比,FAM227A在各类肿瘤患者外周血中处于高表达状态,因此可作为各类肿瘤的重要生物标志物之一。
-
公开(公告)号:CN115373738A
公开(公告)日:2022-11-22
申请号:CN202210871381.5
申请日:2022-07-22
Applicant: 浙江大学滨江研究院
IPC: G06F8/75 , G06F16/33 , G06F16/338
Abstract: 本发明公开了一种基于特征融合的算法血缘管理方法,包括:步骤1、获取算法信息与对应的源码数据,对所述源码数据进行解析,获得控制流图与控制流图中节点信息对应的抽象语法树;步骤2、获取源码数据在控制流图中对应的节点信息,计算获得节点嵌入向量;步骤3、获取源码数据在抽象语法树中对应的序列标识符,计算获得词嵌入向量;步骤4、对节点嵌入向量和词嵌入向量进行融合,获得对应的融合特征向量;步骤5、根据算法信息和融合特征向量,对融合特征向量进行可视化分析,获得算法血缘图谱。本发明还提供了一种算法血缘管理装置。本发明提供的方法通过融合算法的多维特征,从而解决算法来源难以追溯,难以管理的问题。
-
公开(公告)号:CN115294642A
公开(公告)日:2022-11-04
申请号:CN202210674240.4
申请日:2022-06-15
Abstract: 本发明公开了一种用于机器辅助康复系统的目标身份检测系统及方法,本发明,包括包括RSSD模块、TA‑LSTM模块、目标检测模块和实时身份识别模块,其特征在于:RSSD模块,用于对康复视频每一帧中患者肢体或辅助工具检测框信息进行提取;TA‑LSTM模块,对目标进行检测,抑制无用特征来降低计算量,并对目标特征进行增强;目标检测模块,对康复视频每一帧中患者肢体或辅助工具的检测框信息,检测框信息包括目标类别分数、检测框中心点坐标与宽高;实时身份识别模块,对动态帧的目标进行身份识别,并且进行对应的身份标号。本发明中,静态帧和视频流的联合训练来实现帧间挖掘,从而提高检测效率,并避免了由于患者运动、监测摄像头异常等所产生的问题帧的误检漏检。
-
公开(公告)号:CN115130591A
公开(公告)日:2022-09-30
申请号:CN202210773999.8
申请日:2022-07-01
IPC: G06K9/62 , G06F16/35 , G06F40/289 , G06N3/04 , G06N3/08
Abstract: 本发明公开了一种基于交叉监督的多模态数据分类方法,包括:步骤1、获取多模态数据,构建包含标已注数据和未标注数据的样本集;步骤2、以同一个网络结构为基础,构建第一分类模型与第二分类模型;步骤3、利用样本集,对第一分类模型与第二分类模型进行训练与参数调整;步骤4、采用已标注数据,分别训练获得的第一分类模型与第二分类模型进行测试,选取测试结果最好的模型作为最终的多模态数据分类模型;步骤5、将待分类的多模态数据输入至多模态数据分类模型,输出多模态数据对应的分类结果。本发明还提供了一种多模态数据分类装置。本发明提供的方法可以在小样本多模态数据的条件下,保证分类模型的鲁棒性、泛化能力及预测准确率。
-
-
-
-
-
-
-
-
-