
协和有三宝:病历、图书馆和老专家。从此可看出病历对于医学实践和研究的重要价值,但是要充分挖掘出其价值着实不容易,不仅仅是数据要素确权的问题,还有诸多数据挖掘等技术和算法问题。而这篇论文《A Systematic Survey of Electronic Health Record Modeling: From Deep Learning Approaches to Large Language Models》,就是关于如何用人工智能技术处理电子健康记录(EHR)的综述性研究,涵盖了从早期的深度学习方法到如今热门的大型语言模型(LLMs)的应用,目的是梳理这一领域的技术脉络和未来方向——毕竟医院里堆积如山的病历、检查数据如果能被AI“读懂”,医生看病会更准,患者也能少跑冤枉路。而主要作者均来自美国宾夕法尼亚州立大学(The Pennsylvania State University)的信息科学与技术学院。
一、医院的“数字病历”有多难搞定?EHR的特殊性与挑战
你去医院看病时,医生会在电脑里记下你的症状、开的药、检查结果,这些零散的信息汇总起来就是电子健康记录(EHR)。但对AI来说,这些记录简直是“一团乱麻”。打个比方,EHR就像一本写了几十年的日记,里面夹杂着数字(比如血压130/80)、代码(比如诊断用的ICD-10编码)、医生手写的备注(可能今天写“发烧”,明天写“发热”),甚至还有X光片、CT图像,而且记录时间完全没准——可能你每天测一次血糖,也可能半年才做一次体检。
论文里总结了EHR的几个“脾气”,让AI特别头疼:
首先是“五花八门”的异质性。EHR里啥数据都有:年龄、性别是固定信息,血压、血糖是随时变化的数字,诊断结果是标准化代码,医生的病程记录是自由文本,还有CT、MRI这样的图像。就像把Excel表格、Word文档和照片混在一起让AI分析,它得先学会“看懂”每一种类型的信息。
其次是“没规律”的时间性。你不可能像打卡一样准时去医院,所以EHR的记录时间间隔完全随机。比如你可能3个月没测过血压,突然某天测了三次,AI要从这种“时密时疏”的数据里找出病情变化的规律,就像从断断续续的电视剧片段里猜完整剧情。
还有“说不清楚”的语义模糊。比如“血糖110mg/dL”这个数值,对普通人来说可能正常,但对孕妇或糖尿病患者来说可能就是异常。AI要是只看数字不看 context,很容易“误诊”。这就像同样一句话“今天好热”,在海南和东北的意思可能完全不同。
另外,EHR的数据还特别“稀疏”。每个人的记录里都有大量缺失——比如你没做过胃镜,就不会有胃镜数据;医生可能漏写了某个症状。更麻烦的是,这些缺失往往不是随机的:重症患者的记录肯定比轻症患者详细,年轻人的体检数据可能比老年人少。AI要是把“没记录”当成“正常”,就会出大问题。
早期处理这些数据时,科学家们主要靠“人工整理”——比如医生或工程师先把有用的信息挑出来(比如只保留血压、血糖),再喂给模型。但后来发现,AI其实可以自己学会“找重点”,于是技术慢慢从“人帮AI整理”变成了“AI自己整理”。
二、从“笨办法”到“聪明学”:AI处理EHR的技术演进
如果把AI处理EHR比作“学生做病历分析题”,那么这几年的技术进步就像学生从“死记硬背”变成了“举一反三”。
最开始,科学家们用的是“特征工程”,相当于老师把重点划出来让学生背。比如明确告诉模型:“你就看这几个指标——血压、血糖、年龄,其他不用管”。这种方法简单直接,但缺点明显:如果老师漏划了重点(比如没考虑到血脂),学生就考不好。而且EHR里的重点太多,医生也不可能全部预判。
后来出现了深度学习模型,相当于学生学会了自己从课本里找规律。比如循环神经网络(RNN)特别擅长处理时间序列数据,就像能从你断断续续的血糖记录里看出“最近三个月逐渐升高”的趋势;Transformer模型(比如BERT的变种)则像个“细节控”,能同时关注多个指标之间的关系——比如发现“血糖高+体重骤降”可能和糖尿病有关。
这一阶段的关键是“架构设计”,就像给学生设计不同的学习方法:有的模型擅长处理表格数据,有的擅长文本,还有的专门分析图像。比如树状模型(Tree-based models)会把疾病分类做成“决策树”——先看发烧不发烧,再看咳嗽不咳嗽,一步步缩小范围,特别像医生问诊的思路;图状模型(Graph-based models)则把患者、疾病、药物当成节点,用连线表示它们的关系,比如“糖尿病”和“胰岛素”之间有强连接,能帮AI理解治疗逻辑。
再后来,大型语言模型(LLMs)登场了,相当于来了个“超级学霸”,不仅学过海量病历,还读过医学教材、论文,甚至能看懂医生的手写笔记。比如MedPaLM、GatorTron这些模型,参数多达几十亿,能像人一样“读”病历、写诊断建议。它们的厉害之处在于“少样本学习”——医生只要给几个例子,比如“这种情况应该开阿莫西林”,模型就能举一反三,不用像以前那样需要成千上万的病例来训练。
LLMs处理EHR的方法也很灵活:有的直接“问问题”(提示工程),比如给模型输入“患者发烧38度,咳嗽,可能是什么病?”;有的让模型“查资料”(检索增强生成,RAG),比如不确定时自动去查最新临床指南;还有的让多个模型“组队讨论”(多智能体框架),就像多个专家会诊,最后汇总意见。
这里有个值得VC投资人思考的问题:如果一家创业公司说他们的EHR模型准确率超过90%,你可以追问:“这个准确率是在单家医院的数据上测的,还是在不同地区、不同规模的医院都验证过?模型在处理罕见病时的表现如何?” 毕竟医院的数据差异很大,三甲医院和社区医院的记录风格、疾病分布可能完全不同,而罕见病数据少,最能考验模型的真正实力——这两个问题能看出技术是否真的能落地,而不是“实验室里的漂亮数字”。
三、AI当“助手”:从数据到临床的应用场景
把EHR数据“喂”给AI,最终是为了帮医生干活。论文里列举了很多落地场景,简单说就是让AI当“病历分析师”“诊断参谋”“行政助手”。
先看“病历理解”。医生每天要写大量病程记录,AI可以帮忙提炼重点——比如从几页纸里挑出“患者对青霉素过敏”“血压持续升高”这些关键信息,甚至自动生成摘要。这就像秘书帮老板整理会议纪要,把长篇大论浓缩成几条核心结论。还有“临床编码自动化”,比如把医生写的“急性心肌梗死”自动转换成标准化的ICD-10编码I21.9,方便医院 billing 和统计,避免人工编码的错误和延迟。
再看“诊断与决策支持”。AI可以根据EHR预测患者可能得什么病,比如分析一个人的血糖、体重、家族史,提前预警糖尿病风险;还能帮忙做“鉴别诊断”,比如患者发烧、头痛,AI列出“流感”“脑膜炎”“新冠”等可能,并说明每种病的可能性,像个“参谋”给医生提供参考。更高级的是“预后预测”,比如预测患者住院天数、再入院概率,帮医院安排床位、制定随访计划。
还有“医院运营优化”。比如AI可以根据EHR数据预测急诊流量,提前调配护士;或者帮患者匹配临床试验——比如某个癌症患者的基因数据符合某个新药试验的入组条件,AI能自动推荐,省去人工筛选的麻烦。
不过,AI在临床应用中还有个“信任问题”。医生不可能盲目相信AI的建议,所以模型必须“说清楚理由”。比如AI说“患者需要住院”,得能解释是因为“血压骤降+有心肌梗死史”,而不是拍脑袋决定。这就像学生做题要写过程,老师才知道他是不是真懂了。
对AI创业者来说,这里有个关键问题要想清楚:“你们的模型是想替代医生,还是辅助医生?如何平衡模型的准确性和解释性?” 医疗领域的“容错率”极低,哪怕99%准确,1%的错误可能就会危及生命。所以模型必须明确自己的定位——是帮医生减负,而不是抢饭碗。而且解释性比单纯的准确率更重要,医生需要知道AI“为什么这么想”,才能判断是否采纳。比如同样是推荐手术,AI的理由是“患者年轻、无基础病”还是“模型在类似病例上蒙对过”,直接决定医生是否信任它。
四、AI看病历的“软肋”与未来:还有哪些坎要跨?
虽然AI处理EHR的技术进步很快,但论文也指出了不少“卡脖子”的问题。
第一个是“数据难题”。优质的EHR数据很难拿,因为涉及患者隐私,而且不同医院的系统不互通,数据格式五花八门。就像不同学校用不同版本的教材,学生转学后得重新适应。科学家们尝试用“合成数据”——让AI生成假的病历,既能保护隐私,又能给模型练手,但目前生成的数据还不够“逼真”,尤其是罕见病的案例很难模拟。
第二个是“模型太死板”。很多AI模型在A医院表现好,到B医院就“水土不服”,因为不同医院的记录习惯、疾病分布不同。这就像南方的厨师到北方做菜,按老配方放糖可能不受欢迎。而且模型不会“与时俱进”,新出的临床指南、新药信息无法及时更新,容易给出过时的建议。
第三个是“解释性差”。深度学习模型常被叫做“黑箱”,比如它说“患者有糖尿病风险”,但说不清具体是哪个指标导致的判断。医生不敢用,患者更不放心。虽然现在有“可解释AI”技术,比如让模型指出“是因为糖化血红蛋白超标”,但复杂病例中,多个因素纠缠在一起,解释起来还是很困难。
未来的突破方向可能在这几个方面:一是“通用医疗大模型”,一个模型能处理病历、图像、基因等多种数据,就像万能钥匙;二是“临床智能体”,让AI能像医生一样“分步思考”,比如先怀疑肺炎,再建议查胸片,一步步验证;三是“多模态融合”,比如把CT图像和病历文本结合起来,AI既能看片子,又能结合患者的年龄、症状做判断,就像医生同时看报告和图像。
说到底,AI处理EHR的终极目标不是“取代医生”,而是让医生从繁琐的文书工作中解放出来,有更多时间和患者交流。就像计算器没让数学家失业,反而让他们能解决更复杂的问题——AI也会成为医生的“超级工具”,让看病更高效、更精准。而对于研究者和创业者来说,真正的挑战在于如何让技术既懂数据,又懂医学,还懂人性。