-
公开(公告)号:CN118887684A
公开(公告)日:2024-11-01
申请号:CN202411006301.5
申请日:2024-07-25
Applicant: 浙江大学
IPC: G06V30/19 , G06N5/04 , G06F18/25 , G06V30/164 , G06V30/162
Abstract: 本发明公开了一种基于OCR和LLM从图片中自动提取医疗结构化信息的方法,包括以下步骤:从医疗图片中通过OCR进行光学字符识别,并对OCR识别结果进行文本分块得到多个文本块;对多个文本块分别进行信息编码后,基于编码结果为多个文本块创建多个提示文本内容,每个提示文本内容包括文档表示、任务描述和任务标签;利用LLM基于多个提示文本内容进行推理生成多个候选文本;对多个候选文本进行结果整合得到唯一文本,对唯一文本进行信息清洗得到最终文本,这样能够高效准确地从图片中自动提取医疗结构化信息。
-
公开(公告)号:CN113889265B
公开(公告)日:2024-09-17
申请号:CN202111201884.3
申请日:2021-10-15
Applicant: 浙江大学
Abstract: 本发明公开了一种基于表型可视化的罕见病辅助推理的方法及系统,方法包括以下步骤:构建表型语义层级网络和罕见病表型特征网络;计算疾病的表型共现关系和表型特异性;将表型语义层级网络、表型共现关系和罕见病表型特征网络可视化为网络图;根据表型语义层级网络、罕见病的表型共现关系、罕见病表型特征网络,对采集到的患者的表型特征进行相似度计算,得到候选疾病;基于表型语义层级网络、罕见病的表型共现关系和候选疾病对于患者的表型信息进行优化,获得优化后的表型集合;利用可视化的罕见病表型特征网络对比展示候选疾病和优化后的表型集合,辅助医生对罕见病进行鉴别诊断。本发明的方法及系统可辅助医生提高罕见病的诊断效率。
-
公开(公告)号:CN118505596A
公开(公告)日:2024-08-16
申请号:CN202410283580.3
申请日:2024-03-13
Applicant: 浙江大学
IPC: G06T7/00 , G06T7/11 , G06T7/60 , G06T7/20 , G06N3/0464 , G06N3/0455 , A61B8/08
Abstract: 本发明公开一种基于多尺度膨胀卷积的超声膈肌参数自动测量方法、装置、介质及产品,涉及图像处理技术领域,在传统u‑net网络的基础上,将传统网络中的编码器各特征提取阶段的双卷积模块替换为不同尺度的膨胀卷积模块,且在编码器和解码器之间设置卷积模块,构成了一个多尺度膨胀卷积分割网络,利用该多尺度膨胀卷积分割网络进行图像分割,大大提高了超声膈肌分割结果的准确性,进而提高了超声膈肌参数测量的准确性。另外,本发明的设计的测量方法可以实现参数的自动测量,无需人工操作测量,提高了参数测量的效率。
-
公开(公告)号:CN118352097A
公开(公告)日:2024-07-16
申请号:CN202410413415.5
申请日:2024-04-08
Applicant: 浙江大学
Abstract: 本发明公开了一种基于大语言模型与知识蒸馏的随访数据采集方法和系统,方法包括以下步骤:根据随访表单中的条目生成提示并输入大语言模型,将生成的问题发送给用户并获取用户回答;根据问答的短期对话历史和长期对话历史的相似度筛选相关对话历史;将大语言模型作为教师模型并生成标注对话数据集,结合下游任务对作为学生模型的意图提取语言模型进行知识蒸馏;基于短期对话历史、相关对话历史和条目信息,使用知识蒸馏后的意图提取语言模型提取用户意图;逐条直至最终完成整个随访表单的随访数据采集。本发明能够实现高对话效率、高数据质量和低算力开销的随访数据采集,适用于患者院外随访数据采集等多种医疗数据采集应用场景。
-
公开(公告)号:CN112329921B
公开(公告)日:2023-11-14
申请号:CN202011253328.6
申请日:2020-11-11
Applicant: 浙江大学
IPC: G06N3/042 , G06N3/0985 , G06N3/092 , G06N3/0442 , G06N3/045 , G06N3/0475 , G06N3/094 , G16H20/10 , G16H70/40
Abstract: 本发明公开了一种基于深度表征学习和强化学习的利尿剂剂量推理设备,包含:利尿剂剂量推理单元和数据输入单元;利尿剂剂量推理单元包括:利尿剂剂量推荐模块;环境仿真模块;奖赏模块;对抗模块;数据输入单元用于向利尿剂剂量推理单元输入训练数据集对利尿剂剂量推理单元进行训练及向训练好的利尿剂剂量推理单元输入待预测的个体状态以得到预测结果。本发明的基于深度表征学习和强化学习的利尿剂剂量推理设备,利尿剂剂量推理模块、环境仿真模块、奖赏模块和对抗模块相结合,充分利用和医生不一致但相似的干预措施,且能够充分考虑到治疗进程中的动态时序性,利用鉴别器来解决推荐中反事实缺失的问题,提高推荐的性能,保证推荐的合理性。
-
公开(公告)号:CN115359918A
公开(公告)日:2022-11-18
申请号:CN202210950415.X
申请日:2022-08-09
Applicant: 浙江大学
Abstract: 本发明公开了一种用于临床诊断文本自动ICD‑10编码的文本匹配模型的构建方法、装置和应用,包括:首先,通过将编码历史文本处理为优先匹配集,借助往年编码历史的编码结果类比推理未编码临床诊断文本的编码结果;然后,实现一种基于交互式文本匹配的方式,在匹配过程中,将两个文本中的每个文字都进行交互匹配,采用了逐元素减法和逐元素乘法经过一个神经网络的匹配策略,保留了较多的原始信息,获得了更好的匹配效果,在聚合过程中采用了卷积神经网络,使用具有相同权重的卷积核合并特征来保留更多原始信息,进一步提升了匹配效果;最后,无法与往年编码历史匹配的数据仍可以与ICD‑10疾病标准名称进行二次匹配,确保匹配的全面性。
-
公开(公告)号:CN113607822B
公开(公告)日:2022-08-05
申请号:CN202110899762.X
申请日:2021-08-06
Applicant: 浙江大学
Abstract: 本发明公开了一种平面波穿颅声场相位畸变补偿方法。所述方法,包括:确定颅骨模型外换能器各阵元接收到的穿过颅骨模型的声波时域信号;由各阵元的声波时域信号计算各阵元的相位差;根据相位差和不同多面体气泡的相位变化曲线确定各阵元对应的声学超构材料的拓扑结构;根据各阵元对应的声学超构材料的拓扑结构确定补偿结构;补偿结构用于当固定于颅骨上时实现平面波穿颅声场相位畸变的补偿。本发明能补偿平面波通过颅骨时产生的相位畸变,提高超声图像质量。
-
公开(公告)号:CN114639483A
公开(公告)日:2022-06-17
申请号:CN202210291079.2
申请日:2022-03-23
Applicant: 浙江大学
Abstract: 本发明公开了一种基于图神经网络的电子病历检索方法,包括:获得电子病历中医疗实体的共现矩阵,将医疗实体与祖先医疗实体的共现信息加入到医疗实体共现矩阵得到增强医疗实体共现矩阵,采用GloVe模型提取每个医疗实体向量表示和患者向量表示,电子病历异构图包括医疗实体节点,患者节点,医疗实体间链接真实关系和患者与医疗实体链接真实关系;将电子病历异构图输入至图神经网络分别得到患者节点输出向量表示和医疗实体节点输出向量表示,患者与医疗实体链接关系概率;医疗实体间链接关系概率;利用总损失函数训练图神经网络,更新参数得到最终图神经网络;该方法能够准备预测患者与医疗实体的关联概率。
-
公开(公告)号:CN113333260B
公开(公告)日:2022-04-26
申请号:CN202110670231.3
申请日:2021-06-17
Applicant: 浙江大学
IPC: B06B1/06
Abstract: 本发明涉及一种穿颅薄膜压电微纳阵列超声换能器,包括:薄膜压电微纳阵列、声学软质超凝胶材料层、声透镜和三个匹配层;三个匹配层分别为第一匹配层、第二匹配层和第三匹配层;薄膜压电微纳阵列用于发射超声波或接收待测物体反射的超声波;第一匹配层、声透镜、第二匹配层、声学软质超凝胶材料层和第三匹配层沿超声波的发射方向依次设置在薄膜压电微纳阵列的一侧;声学软质超凝胶材料层选用声学软质超凝胶材料,所述声学软质超凝胶材料具有与颅骨等效质量密度和等效体积模量数值相等、正负相反的互补特性,用于实现薄膜压电微纳阵列与颅骨之间的阻抗匹配。通过使用声学软质超凝胶材料层实现了超声换能器的无创穿颅超声成像。
-
公开(公告)号:CN114360677A
公开(公告)日:2022-04-15
申请号:CN202111544922.5
申请日:2021-12-16
Applicant: 浙江大学
IPC: G16H15/00 , G06F40/295
Abstract: 本发明公开了一种基于多轮问答的CT影像报告信息抽取方法、装置、计算机设备和存储介质,包括:(1)根据信息抽取任务预设头实体问答问题和尾实体问答问题模板;(2)基于阅读理解框架构建并优化信息抽取模型;(3)将从提取CT影像报告中提取的句子与每条头实体问答问题拼接,得到提取头实体所需的输入文本,并输入到训练好的信息提取模型得到头实体;随后,将头实体与尾实体问答问题模板拼接,得到针对头实体的尾实体问答问题,并将其与句子拼接得到提取尾实体所需的输入文本,将输入文本输入到训练好的信息提取模型中得到尾实体;(5)将得到的头实体和尾实体配对成三元组,并将提取的三元组信息进行标准化后输出。
-
-
-
-
-
-
-
-
-