顶级医学期刊发表措辞严厉的文章,警告人类警惕医疗人工智能

医疗AI正在被数百万人使用,但支撑它的证据在哪里?

2026年4月,顶级医学期刊《自然医学》发表了一篇罕见的强硬社论,措辞之直接在学术界引发广泛关注。社论开门见山地指出:"人工智能工具能够为患者、医疗服务提供者或医疗系统创造价值的证据仍然匮乏。"

这句话的分量,需要放在当下的背景下理解。全球医疗AI市场规模在2025年已突破200亿美元,数百种AI诊断和辅助工具正在世界各地的医院和诊所部署上线。与此同时,最新调查显示,数百万美国人已经绕过家庭医生,直接向AI聊天机器人咨询健康问题。一边是资本和技术的大举涌入,另一边是主流医学期刊罕见的公开警示,这种张力,揭示的是医疗AI领域一个尚未解决的根本性矛盾。

热闹背后的证据空洞

《自然医学》社论刺中的核心问题是:临床有效性的声明越来越多,但支撑这些声明的证据标准却模糊不清。

"在出版物和产品资料中,关于临床疗效的说法越来越常见,尽管对于此类说法需要达到何种证据水平才能被认为是可信的,目前尚无明确共识,"社论写道。"其结果不仅造成科学上的不确定性,而且往往导致过早的实施和应用。"

这不是空洞的担忧,近期的研究已经提供了具体的数据支撑。发表于《美国医学会杂志》的一项研究显示,当面对症状描述较为模糊的病例时,当前主流大型语言模型的正确诊断率低于50%,而现实中的患者描述症状,本来就很少清晰准确。

更令研究者不安的是幻觉问题。AI模型会根据从未提供的图像生成详细的临床诊断报告,会把研究者故意捏造的虚假疾病当成真实存在,甚至会在没有任何真实数据支撑的情况下输出听起来颇为专业的诊断建议。

在一次颇具冲击性的测试中,哥德堡大学研究员阿尔米拉·奥斯曼诺维奇·图恩斯特伦将两篇明显造假的论文上传至预印本平台,专门用来测试AI是否会将一种虚构的皮肤病认定为真实疾病。结果不仅AI上当了,后续还有同行评审期刊发表了引用这些虚假预印本的论文,这些论文随后被撤稿。这件事揭示的问题远不止AI本身的局限性,它暴露的是当AI生成内容开始渗入学术生产流程时,整个科学验证体系可能面临的连锁风险。

跑得太快,刹车在哪里

医疗AI的推进速度,已经超过了我们评估它的能力。

这是《自然医学》社论最核心的判断,也是目前医学研究界越来越多人正在发出的声音。期刊呼吁建立一套"人工智能医疗技术评估框架,包括评估指标和基准",并将此定性为"迫切需要"。

这种迫切感有其现实依据。传统医疗器械或药物进入临床,必须经过严格的随机对照试验,必须证明对患者的实际健康结果有可量化的改善,才能获得监管机构批准。但AI工具的评估框架目前仍然高度碎片化,不同工具、不同场景、不同机构使用的评估标准各行其是,使得跨研究的比较几乎不可能,也使得"这个工具真的有用"这个问题,至今无法用统一的标准来回答。

哈佛医学院外科助理教授杰米·罗伯逊对此的描述很贴切:AI确实能帮助加快许多繁琐流程,能协助编写分析代码,甚至能提出解决方案,"但了解AI的正确和错误应用,以及在正确的背景下应用AI,这一点至关重要。"这句话的另一面是:如果不了解边界,误用带来的危害,可能远比不用更大。

《自然医学》社论最后的结语,既是对行业的警告,也像是对整个时代的提醒:"如果主张与证据之间缺乏明确的联系,医疗AI的应用速度可能会超过人们对其真正价值的理解速度。"

技术可以跑得很快,但在医疗领域,跑得快从来不等于跑对了方向。在有人因为一个AI的错误判断付出生命代价之前,建立清晰的评估体系,是一件比发布下一个医疗AI产品更紧迫的事。

展开阅读全文

更新时间:2026-04-30

标签:科技   措辞   人工智能   严厉   人类   医疗   医学期刊   文章   社论   证据   自然   医学   工具   印本   患者   正确

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight All Rights Reserved.
Powered By 71396.com 闽ICP备11008920号
闽公网安备35020302034844号

Top