电脑辅助医疗法、非暂态电脑可读取存储媒体及医疗系统

    公开(公告)号:CN109147931A

    公开(公告)日:2019-01-04

    申请号:CN201810354318.8

    申请日:2018-04-19

    IPC分类号: G16H50/20 G16H50/50

    摘要: 本发明涉及电脑辅助医疗法、非暂态电脑可读取存储媒体及医疗系统。电脑辅助医疗方法包含以下步骤,通过互动介面收集患者的初始症状与背景信息。依据这些候选预测模型以及初始症状按序产生一系列多个动作,多个动作各自对应于询问动作或疾病预测动作其中一者。当此系列多个动作当中最新一个动作对应于其中一个疾病预测动作时,通过候选预测模型的评估,产生潜在疾病预测的第一排名。依据背景信息将第一排名调整为一第二排名,产生对应于潜在疾病预测的第二排名的结果预测。候选预测模型可根据评估而决定要进行询问动作或疾病预测动作,增加进行疾病预测的时间弹性与效率。

    强化学习系统及训练方法

    公开(公告)号:CN113392979B

    公开(公告)日:2024-08-16

    申请号:CN202110265955.X

    申请日:2021-03-11

    IPC分类号: G06N20/00

    摘要: 一种训练方法,适用于具有一奖励函数的一强化学习系统去训练一强化学习模型,且包含:定义该奖励函数的至少一奖励条件;决定相对应于该至少一奖励条件的至少一奖励值范围;藉由超参数最佳化演算法从该至少一奖励值范围中搜寻出至少一奖励值;以及根据该至少一奖励值训练该强化学习模型。本公开内容更提供一种强化学习系统用以执行该训练方法。在没有通过实验人工决定精确数值的情况下,强化学习系统可自动地决定与多种奖励条件相对应的多个奖励值。据此,训练强化学习模型的过程或时间可以缩短。藉由自动地决定与多种奖励条件相对应的多个奖励值,经由强化学习系统训练出来的强化学习模型有很大的机会拥有高的成功率,从而能选择合适的动作。

    控制方法以及医学系统
    3.
    发明授权

    公开(公告)号:CN110504026B

    公开(公告)日:2022-07-26

    申请号:CN201910413304.3

    申请日:2019-05-17

    摘要: 一种强化学习系统的控制方法包含下列步骤。强化学习系统获得有关互动系统的训练数据,互动系统与强化学习智能体互动。训练神经网络模型以最大化强化学习智能体对应多个序列行动所收集到的累积奖励,其中强化学习智能体使用神经网络模型从一系列的多个候选行动中挑选出所述序列行动。在神经网络模型的训练过程中,根据所述序列行动中的症状询问行动与确诊症状之间的比较结果提供累积奖励当中的多个辅助奖励给强化学习智能体。通过提供辅助奖励以鼓励强化学习智能体去选择症状询问行动当中潜在答案较有机会为是的询问行动,借此提高提出关键性询问行动的可能性。本公开还涉及一种医学系统。

    控制方法以及医学系统
    4.
    发明公开

    公开(公告)号:CN110838363A

    公开(公告)日:2020-02-25

    申请号:CN201910760349.8

    申请日:2019-08-16

    IPC分类号: G16H50/20 G16H50/70 G06N3/04

    摘要: 本公开涉及控制方法以及医学系统。用以控制医学系统的一种方法包含下列步骤。接收初始症状。利用神经网络模型以选择症状询问行动。接收针对症状询问行动的症状答复。利用神经网络模型根据初始症状及症状答复选择医疗检测行动。接收针对医疗检测行动的检测结果。利用神经网络模型根据初始症状及症状答复以及检测结果选出结果预测行动。

    控制方法以及医学系统
    5.
    发明授权

    公开(公告)号:CN110838363B

    公开(公告)日:2023-02-21

    申请号:CN201910760349.8

    申请日:2019-08-16

    IPC分类号: G16H50/20 G16H50/70 G06N3/045

    摘要: 本公开涉及控制方法以及医学系统。用以控制医学系统的一种方法包含下列步骤。接收初始症状。利用神经网络模型以选择症状询问行动。接收针对症状询问行动的症状答复。利用神经网络模型根据初始症状及症状答复选择医疗检测行动。接收针对医疗检测行动的检测结果。利用神经网络模型根据初始症状及症状答复以及检测结果选出结果预测行动。

    强化学习系统及训练方法

    公开(公告)号:CN113392979A

    公开(公告)日:2021-09-14

    申请号:CN202110265955.X

    申请日:2021-03-11

    IPC分类号: G06N20/00

    摘要: 一种训练方法,适用于具有一奖励函数的一强化学习系统去训练一强化学习模型,且包含:定义该奖励函数的至少一奖励条件;决定相对应于该至少一奖励条件的至少一奖励值范围;藉由超参数最佳化演算法从该至少一奖励值范围中搜寻出至少一奖励值;以及根据该至少一奖励值训练该强化学习模型。本公开内容更提供一种强化学习系统用以执行该训练方法。在没有通过实验人工决定精确数值的情况下,强化学习系统可自动地决定与多种奖励条件相对应的多个奖励值。据此,训练强化学习模型的过程或时间可以缩短。藉由自动地决定与多种奖励条件相对应的多个奖励值,经由强化学习系统训练出来的强化学习模型有很大的机会拥有高的成功率,从而能选择合适的动作。

    控制方法以及医疗系统
    7.
    发明授权

    公开(公告)号:CN113393940B

    公开(公告)日:2024-05-24

    申请号:CN202110263519.9

    申请日:2021-03-11

    IPC分类号: G16H50/70 G16H50/20

    摘要: 一种控制方法包含下列操作:收集症状输入状态以及检查结果状态;利用神经网路根据症状输入状态以及检查结果状态产生检查建议、预测检查结果分布以及预测疾病分布,其中检查建议包含候选检查;根据预测检查结果分布以及预测疾病分布,估算候选检查相对于多个疾病的多个资讯增益;根据候选检查的资讯增益产生有关检查建议的解释性描述;可根据关注输入产生有关预测疾病清单的另一解释性描述。藉此,本控制方法可以在检查建议阶段以及疾病预测阶段提出相应的决策解释。

    机器学习装置以及方法
    8.
    发明公开

    公开(公告)号:CN114648094A

    公开(公告)日:2022-06-21

    申请号:CN202111451127.1

    申请日:2021-12-01

    摘要: 一种机器学习方法,包括:藉由处理器从存储器中获取模型参数,并根据模型参数执行分类模型,其中分类模型包括多个神经网络结构层;藉由处理器根据多个训练样本计算第一损失以及第二损失,其中第一损失对应于多个神经网络结构层中的输出层,第二损失对应于多个神经网络结构层中位于输出层之前的一层;以及藉由处理器根据第一损失以及第二损失对模型参数执行多个更新操作以训练分类模型。此外,一种机器学习装置亦在此公开。根据独立性损失以及平均处理效应损失调整分类模型,去除分类模型中的显性伪相关或隐性伪相关,藉以提高分类模型的整体性能。

    电脑辅助医疗法、非暂态电脑可读取存储媒体及医疗系统

    公开(公告)号:CN109147931B

    公开(公告)日:2022-04-19

    申请号:CN201810354318.8

    申请日:2018-04-19

    IPC分类号: G16H50/20 G16H50/50

    摘要: 本发明涉及电脑辅助医疗法、非暂态电脑可读取存储媒体及医疗系统。电脑辅助医疗方法包含以下步骤,通过互动介面收集患者的初始症状与背景信息。依据这些候选预测模型以及初始症状按序产生一系列多个动作,多个动作各自对应于询问动作或疾病预测动作其中一者。当此系列多个动作当中最新一个动作对应于其中一个疾病预测动作时,通过候选预测模型的评估,产生潜在疾病预测的第一排名。依据背景信息将第一排名调整为一第二排名,产生对应于潜在疾病预测的第二排名的结果预测。候选预测模型可根据评估而决定要进行询问动作或疾病预测动作,增加进行疾病预测的时间弹性与效率。

    运算方法以及运算系统
    10.
    发明公开

    公开(公告)号:CN115392450A

    公开(公告)日:2022-11-25

    申请号:CN202210571821.5

    申请日:2022-05-24

    IPC分类号: G06N3/08 G06N3/04 G06F17/16

    摘要: 一种适用于转换器模型的运算方法,运算方法包含下列步骤。根据多个第一可学习权重将对应于输入序列的输入矩阵映射至查询矩阵。根据多个第二可学习权重将输入矩阵映射至数值矩阵。根据查询矩阵以及查询矩阵的转置查询矩阵通过不完全科列斯基分解产生分解矩阵。根据分解矩阵的转置分解矩阵以及数值矩阵的乘积计算中间矩阵。根据该分解矩阵与该中间矩阵的乘积计算输出矩阵。一并公开一种运算系统。通过采用不完全科列斯基分解,转换器模型能够处理具有更长长度的输入序列。