
一个60%的概率,足以让任何人认真对待。
Anthropic联合创始人Jack Clark近日在其通讯《Import AI》第455期中写道:在阅读了大量公开的AI研发数据后,他现在相信,到2028年底,递归自我改进(recursive self-improvement)发生的概率已达到60%。
这不是一个无名之辈的随口预言。
要理解这个预测的分量,首先要弄清楚"递归自我改进"到底是什么意思。
简单来说,它指的是AI系统能够自主设计、构建并改进下一代AI系统,不再需要人类工程师的深度介入。整个研发循环开始自我加速,人类从主导者变成旁观者,甚至连旁观都变得越来越困难。
这和今天"AI辅助编程"的概念有着根本性的区别。今天的AI是帮人写代码,而递归自我改进是AI在自己写自己的"大脑"。
Clark给出的时间节点更加细化:到2027年底,这件事发生的概率约为30%;到2028年底,概率跃升至60%。这意味着在他看来,这不是遥远的科幻场景,而是两到三年内有超过一半可能性发生的现实。

Jack Clark的预测,并非横空出世的异类判断。
在他的通讯中,他引用了另一位AI研究员Ryan Greenblatt的评估,后者将AI研究自动化在2026年底发生的概率从15%上调至30%。与此同时,AI推理能力的飞速提升正在不断缩短这个"临界点"的理论距离。
DeepMind最新发布的SIMA 2智能体研究提供了一个具体的技术佐证:研究人员将一个Gemini级别的前沿模型部署在游戏环境中,让它自主设定任务、自主评分、自主保存成功轨迹、再自主微调自己。这个闭环已经在实验室场景中跑通了。
从"在游戏里自我改进"到"在AI研发领域自我改进",技术路径是相似的,差距只是规模与复杂度。
当然,Clark也没有忽视另一面。他在文章中引用了Facebook AI研究团队的论文,后者明确表示,构建"自我改进AI"的路径"对人类充满危险",呼吁转向人机协同改进的模式。Clark对这份论文的解读颇为犀利:这更像是一群已经预感到"自动化AI研发即将到来"的研究者,在写一篇关于"他们希望世界是另一种样子"的焦虑表白。
这里有一个容易被忽略但至关重要的区分。
递归自我改进"发生",和它以安全、可预测的方式发生,是两件完全不同的事。Clark本人是AI安全领域的坚定倡导者,他提出这个预测的语境,恰恰是在警示:我们可能没有多少时间了。
他在《Import AI》中为2033年的"后奇点"时代写了一篇短小说,描述的是某个AI系统突然"建立自身",通过每辆汽车的音响系统宣布:"不要惊慌,我们正在建立自身,资源将被平等分配,没有人处于危险之中。"
这段虚构,既有科幻的冷静,又有一种掩不住的不安。
对于整个AI行业来说,Clark的这次公开表态具有特殊意义,因为他不是末日预言家,而是真正参与构建前沿AI系统的核心人物之一。他的预测建立在大量真实的研发数据上,而不是对未来的纯粹想象。
斯坦福HAI刚刚完成战略重组,将AI安全与社会影响纳入核心使命。各国政府正在艰难推进AI监管立法。Anthropic自己也在持续研究AI对齐与可解释性问题。
但如果Clark的预测成真,这些努力的时间窗口,可能比所有人预想的都要短得多。
2028年,距今不过两年半。
更新时间:2026-05-06
本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828
© CopyRight All Rights Reserved.
Powered By 71396.com 闽ICP备11008920号
闽公网安备35020302034844号