98%医生点赞的AI队友,斯坦福实验揭秘:诊断准确率飙升10%!

AI资讯 20小时前 charles
65 0

98%医生点赞的AI队友,斯坦福实验揭秘:诊断准确率飙升10%!



  新智元报道  

编辑:英智
【新智元导读】AI从医疗工具变身为协作队友,斯坦福大学研究揭示:医生诊断准确率竟飙升10%!70名美国执业医生参与的真实测试,AI-first、AI-second与传统诊断,谁能更精准破解临床谜题?

你敢让AI帮你看病吗?

斯坦福大学的一群医生和工程师,最近做了一项研究:让AI和人类医生组队,共同破解复杂的诊断难题。

98%医生点赞的AI队友,斯坦福实验揭秘:诊断准确率飙升10%!

论文链接:https://www.medrxiv.org/content/10.1101/2025.06.07.25329176v1.full.pdf

结果让人惊讶:当AI从「工具」变成「队友」,医生的诊断准确率直接飙升了10%。

网友惊叹:颠覆的临界点即将到来!

98%医生点赞的AI队友,斯坦福实验揭秘:诊断准确率飙升10%!

「充满热情的医生加上AI将势不可挡。」

98%医生点赞的AI队友,斯坦福实验揭秘:诊断准确率飙升10%!

「AI驱动的临床决策支持,仍然是该领域最有力的杠杆之一。」

98%医生点赞的AI队友,斯坦福实验揭秘:诊断准确率飙升10%!

还有人表示,「对于一个背负数十万美元债务的医生来说,这种发现有点令人害怕。这还只是用GPT 4,无法想象o3会有多厉害。」

98%医生点赞的AI队友,斯坦福实验揭秘:诊断准确率飙升10%!


98%医生点赞的AI队友,斯坦福实验揭秘:诊断准确率飙升10%!
AI当医生,
抢饭碗还是递扳手?

过去几年,AI在医疗领域的存在感越来越强,从影像识别到药物研发。

但医生把它当搜索工具,用来查指南、找文献,却不敢真正把它当作「搭档」。

为什么会这样?斯坦福的研究团队发现,关键问题出在交互模式上。

早期的AI就像个沉默的助手,医生输入问题,它输出答案。

这导致医生很难信任AI的判断,甚至出现过「医生用AI辅助诊断,结果反而比AI单独诊断更差」的情况。

于是,他们决定做一个颠覆性实验:把AI变成会讨论的队友。

98%医生点赞的AI队友,斯坦福实验揭秘:诊断准确率飙升10%!

实验设计很巧妙:让医生和AI各自先独立分析病例,然后AI生成一份联合报告,不仅列出双方的共识和分歧,还会像资深医生一样点评每个诊断的合理性。

比如,当医生考虑真性红细胞增多症,AI会补充低EPO水平支持这一诊断,但需排除罕见的EPO分泌肿瘤。

当医生漏掉淋巴瘤的可能性,AI会提醒瘙痒和尿酸升高可能是这个方向。

98%医生点赞的AI队友,斯坦福实验揭秘:诊断准确率飙升10%!

团队基于GPT-4开发了一款定制化的AI系统,设计了两种协作工作流程,分别测试AI-first和AI-second时的效果。

70名美国执业的内科或家庭科医生参与了这项试验,他们被随机分配到以下三种组别之一:

  1. AI-first组:医生首先输入病例信息,查看AI生成的诊断建议(包括五个可能的诊断和七个后续步骤),然后结合自己的判断形成最终诊断。

  2. AI-second组:医生先独立完成诊断(可以使用传统资源如UpToDate、PubMed等),再将病例和自己的初步诊断输入AI系统,AI会生成独立分析并与医生的诊断进行整合,生成一份综合报告。

  3. 对照组:医生仅使用传统资源完成诊断,不与AI互动。

实验使用了六个基于真实患者的临床病例,涵盖了复杂诊断场景。

每个病例包含病史、体检和实验室检查结果,医生需要提供三个可能的诊断、支持和反对的证据、最终诊断及三个后续步骤。

研究通过19分制的评分系统评估诊断的准确性,评分由两位内科认证医生独立完成,且评分者不知道答案来自医生还是AI,以确保公平。

98%医生点赞的AI队友,斯坦福实验揭秘:诊断准确率飙升10%!

AI系统的核心设计在于协作。

它不仅生成自己的诊断,还会对比医生和AI的判断,生成一份综合报告,清晰列出双方提出的诊断、共识点、分歧点,并对每个诊断提供评论。

这种设计旨在激发医生的批判性思考,而非简单依赖AI的输出。


98%医生点赞的AI队友,斯坦福实验揭秘:诊断准确率飙升10%!
研究结果:
AI显著提升诊断准确性

研究结果令人振奋,AI协作组的医生表现明显优于仅使用传统工具的对照组。

诊断准确性

  • 对照组(传统工具):平均得分75%。

  • AI-first组:平均得分85%,比对照组高9.8%(p<0.0004)。

  • AI-second组:平均得分82%,比对照组高6.8%(p<0.00001)。

  • AI单独运行:平均得分90%,略高于协作组但差异不显著。

98%医生点赞的AI队友,斯坦福实验揭秘:诊断准确率飙升10%!

医生和AI协作后,虽然没超过AI单独水平,却比医生单打独斗强。这说明,AI能补全人类思维的漏洞。

在最终诊断和后续步骤(即临床上可操作的决策)方面,AI-first比AI-second组表现更好(高8.9%,p=0.026)。

AI-second相较于对照组在这些决策上的得分提升了14.9%(p=0.00092),其中36%的病例在与AI互动后有所提高。

98%医生点赞的AI队友,斯坦福实验揭秘:诊断准确率飙升10%!

AI-first完成每个病例的平均时间为631秒,略快于AI-second的688秒。在剔除未严格遵循流程的病例后,AI-first的优势更明显。

所有医生在试验后对AI的态度显著改善,98.6%表示愿意在复杂临床推理中使用AI(试验前为91.4%,p=0.011)。


98%医生点赞的AI队友,斯坦福实验揭秘:诊断准确率飙升10%!
为什么AI当队友更厉害?

信息过载与遗漏:临床诊断就像拼拼图,每个病例可能包含几十条线索。

医生很容易漏掉某个实验室指标(比如「血清LDH升高」提示细胞破坏),但AI能瞬间扫描所有数据,精准关联高LDH+巨幼细胞贫血可能指向骨髓增生异常综合征。

经验依赖的陷阱:资深医生容易被典型病例固化思维。

比如看到老年女性、乏力、舌炎,可能优先考虑缺铁性贫血,但AI会跳出经验框架,提出维生素B12缺乏或甲状腺功能减退的可能性。

决策链的逻辑性:AI的诊断报告就像思维流程图:先列出3个最可能的诊断,再用支持证据和反对证据逐条论证,最后给出3个下一步检查建议。

98%医生点赞的AI队友,斯坦福实验揭秘:诊断准确率飙升10%!

AI的「人性化改造」

为了让AI更懂医生,研究团队给它加了三个补丁。

1. 会「吵架」的批判性思维:当医生的诊断和AI不一致时,AI不会直接服从,而是会说:「您提到的原发性胆汁性胆管炎可能性较低,因为患者缺乏胆汁淤积的证据,但需要注意罕见变异型。」

这种挑战不是对抗,而是逼医生重新审视自己的逻辑漏洞。

2. 能「翻译」的沟通能力:传统AI输出的是学术化的语言,但实验中的AI会用口语化表达:「目前看,真性红细胞增多症是最可能的,但淋巴瘤不能完全排除,建议先查血清EPO水平和骨髓活检。」

这种说人话的能力,让医生更容易理解和接受。

3. 可「追溯」的透明化决策:每个诊断结论,AI都会标注证据来源,比如「支持淋巴瘤的证据是瘙痒和尿酸升高(引用文献X),反对证据是缺乏淋巴结肿大(引用指南Y)。」

这解决了医生对AI黑箱决策的不信任感,让协作建立在可验证的基础上。

98%医生点赞的AI队友,斯坦福实验揭秘:诊断准确率飙升10%!

AI的「锚定效应」

研究发现,AI-second组中,AI的独立分析有时会受到医生初步诊断的影响。

实验中有个有趣的细节:AI-second组中,48%的病例中AI的诊断和医生初始意见完全重叠,而AI-first组仅为3%。

说明如果医生先入为主给出思路,AI可能会「迎合」人类判断,未能完全遵循独立分析的指令。

98%医生点赞的AI队友,斯坦福实验揭秘:诊断准确率飙升10%!

比如,有个病例中医生误判缺铁性贫血,AI在后续分析中居然也把这个诊断放在了第一位。尽管按照数据,维生素B12缺乏才是更合理的方向。

这意味着,AI的批判性依赖于独立思考的空间,一旦被人类思维锚定,反而会降低协作价值。

但反过来,当AI先发言时,医生会更主动地挑战它的结论。

有位住院医师在看到AI提出骨髓瘤时,立刻反驳:患者没有骨痛和蛋白尿,这个诊断可能性太低,并最终通过追问病史排除了这一方向。

这种「对抗性协作」,反而激发了更深入的临床推理。

参考资料:
https://x.com/emollick/status/1931907652118069510
https://www.medrxiv.org/content/10.1101/2025.06.07.25329176v1

98%医生点赞的AI队友,斯坦福实验揭秘:诊断准确率飙升10%!


98%医生点赞的AI队友,斯坦福实验揭秘:诊断准确率飙升10%!


相关文章