0
点赞
收藏
分享

微信扫一扫

融合领域知识的医疗推理技术

小时候是个乖乖 2022-01-21 阅读 79
人工智能

融合领域知识的医疗推理技术

1. 智慧医疗现状
市场规模:2025年全球276亿美元

全球发展格局:中美两国智慧医疗发展双足鼎力,日本、英国、以色列紧随其后。

国内现状:

医疗资源分布不均衡

感知到认知智能的过渡

AI医学影像率先落地

新冠疫情刺激智慧医疗行业发展

政策支持

智慧医疗产业

在这里插入图片描述
较为成熟场景:疾病筛查和预测、医学影像诊断、临床辅助决策、病历与文献分析、新药发现。

AI技术:计算机视觉、自然语言处理、语音识别、机器学习等。

在这里插入图片描述
在这里插入图片描述
2. 核心问题
行业限制:
在这里插入图片描述
数据:在这里插入图片描述
算法&算力:

可解释性:当前的AI模型近似黑盒。

医生:希望获得推理证据链,有论证出处

患者:希望有出处和相似病例

个性化:在数据不充沛的情况下,难以做到输入小的改动有差异化的输出。

计算能力:大模型的算力消耗,计算设备更新都是问题。

从技术角度来看,如何将行业知识融入到算法当中,参与参与知识计算是核心。
在这里插入图片描述
3. 领域知识
医疗知识图谱

构建:
在这里插入图片描述
抽取方法:

在这里插入图片描述
实体及属性识别:
在这里插入图片描述
在这里插入图片描述
关系抽取:

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
知识对齐:
在这里插入图片描述
在这里插入图片描述
医疗知识图谱:
在这里插入图片描述
在这里插入图片描述
医疗预训练模型:
BioBERT:

在这里插入图片描述
医疗预训练模型相较于通用模型在生物医学文本挖掘任务如实体识别、关系抽取、问答等有着明显的优势。在公开数据集上,NER在F1值上提高2个点,关系抽取F1值提高2.8个点,QA任务上MRR提高7.6个点。

MC-BERT:

在这里插入图片描述
医学实体全遮盖、医学短语全遮盖

MT-BERT:
在这里插入图片描述
结合下游任务文本相似、关系抽取、推理、NER的多任务学习,共享BERT参数。

BERT-MK:
在这里插入图片描述
通过知识图谱三元组学习实体表示,整合实体表示到PTM训练,将知识图谱内的信息融合到预训练模型中,指导模型参数学习。

4. 融合领域知识推理技术

医疗知识计算
在AI中“推理“通常包括两方面:

  1. Reasoning:生成新知识,要求有完整证据链,具有可解释性

在这里插入图片描述
在这里插入图片描述2. Inference:一般指训练模型结束后的预测

排序类问题:

问答

医疗文献检索

推荐
在这里插入图片描述
在这里插入图片描述
分类问题:

疾病诊断

疾病预测

治疗建议
在这里插入图片描述在这里插入图片描述
在这里插入图片描述
临床决策任务通用框架:

一种整合预训练模型和知识图谱做推理任务的框架。

预训练模型对EHR等患者个人信息进行语义编码。

知识图谱对患者的关键实体如症状、疾病、检查、诊断等进行整合,同和融入外部知识。
在这里插入图片描述
临床决策支持任务实验:
在这里插入图片描述

举报

相关推荐

0 条评论