诺奖得主预警AI风险!超级智能一旦失控,人类或许没有补救机会?

这几年AI末日论层出不穷,一会儿是“AI将取代人类”,一会儿又说“全是泡沫、马上崩盘”。

听得云里雾里,到底该信谁?


最近,《麻省理工科技评论》一篇深度报道,把“AI末日派”拉出来重新审视,他们只反复强调一件事。

末日派没退场,只是调慢了倒计时

过去半年,AI圈确实有点“凉意”。

GPT-5发布后被吐槽“不如预期”,OpenAI突然下线旧模型惹众怒,加上英伟达CEO黄仁勋都公开说“终结者不会来”,不少人觉得“末日论”要破产了。

但周叔翻遍最新访谈发现,这些安全倡导者根本没动摇。

杰弗里·辛顿——刚拿诺贝尔物理学奖的“深度学习教父”,他坦言:“我不确定AGI哪年到,但未来20年内出现超级智能的概率很高。”

杰弗里·辛顿

他甚至提到,中国高层对AI风险的理解“比很多西方政客更清醒”。

而图灵奖得主约书亚·本吉奥则直言:“哪怕只有0.1%的概率导致数十亿人死亡,这事就值得全人类警惕。”

图灵奖得主约书亚·本吉奥

有意思的是,他们普遍把AGI时间表悄悄往后挪。

但这不等于放松,窗口期越长,越要抓紧建立监管和技术防线。

泡沫之下,危险仍在加速酝酿

别被“AI泡沫”带偏节奏。

2024年底,ScaleAI发布的“专业推理基准”显示,当前最强LLM在最难法律问题上得分仅37%

Mercor公司12月更新的“AI生产力指数”也指出,模型在法律等高风险领域存在“显著局限”。

换句话说,AI能写论文、编代码,但离“像律师那样思考”还差得远。

可问题在于,资本和政策却在反向狂奔。

据《麻省理工科技评论》12月17日报道,美国已有近半数百人以上律所部署AI工具,佳利律所甚至因AI裁员10%。

与此同时,由OpenAI高管和风投Andreessen Horowitz支持的“Pro-AI超级政治行动委员会”正在华盛顿推动去监管议程。

一边是技术还不成熟,一边是监管在后退,这不就是最危险的组合吗?

更值得警惕的是,AI能力的提升越来越“隐形”

普通用户问“天空为什么是蓝的”,GPT-4和GPT-5答案差不多,就觉得没进步。

但研究人员用o1、o3这类推理模型做数学证明或科学模拟时,性能已是“强得离谱”。

这种不对称的认知,最容易让人误判形势。

安全不是阻碍,而是通往未来的护栏

很多人把AI安全派当成“刹车党”,其实大错特错。

加州伯克利教授斯图尔特·拉塞尔打了个比方:如果知道2067年有颗小行星要撞地球,你会等到2066年再行动吗?

控制超级智能的技术,可能需要十年甚至更久研发,现在不启动,等于把命运押在运气上。

海伦·托纳——前OpenAI董事会成员,她警告说,激进预测如“2027年AGI”若落空,会让整个安全阵营信誉受损

但她强调:“即便AGI在30年内任一时刻出现,都是天大的事。”

这话很关键——安全议题的紧迫性,不取决于AI明天是否觉醒,而取决于人类是否准备好应对它觉醒的那一刻。

从另一个角度看,黄仁勋说“3年内90%知识由AI生成”,恰恰印证了变革已不可逆。

当知识生产主体从人变成机器,控制权就成了核心问题。

咱们不能一边享受AI红利,一边假装风险不存在。

结语

AI不是洪水猛兽,也不是万能神药。

真正的智慧,在于看清它的双面性——既能重塑文明,也可能颠覆秩序。

末日论或许夸张,但忽视风险才是最大的傲慢。

人类的未来,不该押注在“它不会失控”的侥幸上,而应建立在“即使失控,我们也能兜底”的准备中。

这,才是对技术真正的敬畏。

展开阅读全文

更新时间:2025-12-29

标签:科技   人类   风险   机会   智能   末日   麻省理工   泡沫   技术   年内   模型   未来   概率

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2020- All Rights Reserved. Powered By 71396.com 闽ICP备11008920号
闽公网安备35020302034903号

Top