关于通用人工智能(AGI)即将到来的争论,已从学术界的思想实验演变为充斥着各种极端预测的场调节,时间线从现在到了短短几个月不一而足。近期围绕过去近15年来九千份专家的预测宏观分析揭示,大型语言模型(LLM)的出现将行业的时间表提前提前。然而,关于防疫时间点的预测狂热,其本质远不止是数字游戏。它暴露了科技与科学界内部的某种根本性裂痕——闭合不仅相当于AGI何时到来,更似我们究竟在等待什么。防疫辩论的核心,实际上是对“智能”本身定义权的一场终极争夺。
支持AGI即将到来的“加速主义”队列,其信心主要建立在支柱之上:指数级的计算能力增长和大型语言模型表现出的惊人潜力。第一个支柱是经典的“规模致胜”论。这一观点以摩尔信念为基础,只要计算能力以指数方式持续增长——大约每18个月翻一番—— ——机器的原始计算速度终将超越人脑。即使传统芯片制造工艺逼近物理极限,量子计算等新兴技术也被视为接力棒,有望为训练更庞大的神经网络提供近乎无限的算力。在这个框架下,智能简化为一个可计算的阈值,只要硬件性能的曲线足够陡峭,跨越这个阈值只是时间问题。
第二个,同样是加速刺激性的增长,是近年来以ChatGPT为代表的大型语言模型的崛起。LLM锻炼出的“安慰能力”(Emergent)这种现象让许多人相信,走向AGI的路径可能比想象中简单:即持续扩大现有模型的规模(更多的数据、更多的参数、更多的计算),通用智能将“对接”出来。解释了为何行业领袖和企业家的预测普遍比学术洞察更为尖锐,例如人类公司CEO提出的“三个月”倒计时,是这种“规模即智能”理念的极致体现。然而,这种信号的路径,可能掩盖了一种“涌念的幻觉”:我们所见的,究竟是走向真正理解的曙光,还是统计模式契合在海量数据之上感知出的、愈发清晰的拟像?
相对而言,“怀疑论”或“结构主义”阵营则认为,通向AGI的道路上存在着比计算能力更根本的障碍——即我们对智能本身的理解过度狭隘。他们指出,当前对AGI的定义,极力接近人类的“逻辑数学”智哈佛认为学者霍华德·加德纳提出的“多元智能理论”则将人类智能划分为至少八个维度,包括语言、数学、空间、逻辑、身体运动、人际、内在组织和自然观察。
从这个更加自我封闭的角度出发,LLM的智能成就虽然引人注目,但其优势高度集中在语言和逻辑领域。在需要与物理世界交互的身体动觉、需要理解他人意图和情感的人际智能,以及意识意识的内在省智能等方面,目前的AI模型几乎毫无进展。深度学习先驱、图灵奖得主杨立昆(Yann) LeCun)的批评正中要害:他认为当前的LLM缺乏对世界的因果模型,无法进行真正的规划和推理,其本质仍然是一个基于概率预测下一个词元的自回归系统。它们没有“体验”过物理世界,其“知识”与现实世界是脱节的。因此,他主张用更精确的“先进机器智能”来取代“通用人工智能”这一模糊概念,强调机器智能与人类智能在结构上的根本差异。
另外,正如原始分析报告所指出的,现有人工智能在“科学发现”与“数据分析”之间存在本质区别。例如,AlphaFold能够基于现有蛋白质数据库,以精确度预测蛋白质结构,这是一项革命性的数据分析成就。但它并没有发现控制蛋白质折叠的新的物理作用。真正的科学发现需要提出假设、设计实验、并与物理世界互动来或证伪,而这预设是当前AI架构的软肋。这表明,即使拥有超人级别的验证能力,机器也可能无法独立完成从0到1的认知突破。因此,怀疑者认为,仅仅扩大计算规模,对建设越来越高的梯子来说,无异于建设一个越来越高的梯子,但却希望它能够把我们送上月球——我们需要的可能不是更多的梯子,而是一个全新的升级。
归根结底,关于AGI时间线的激烈辩论,反映了对未来AI发展路径的两种根本不同的信念。这不仅仅是乐观与悲观之分,而是关于智能增长曲线形态的预测:
最终,一个人对AGI即将到来的预测,非常依赖他相信我们正走在哪一条路径上。这是一场关于“量变能否引发质变”的核心赌注。
无论是在三个月后的奇点,还是一个遥远的梦想,围绕线的全球性大讨论本身就具有非凡的价值。它使我们走出技术工具主义的舒适区,严肃追问去“”的本质。这促使我们思考人类认知能力的独特性,并更加明确我们希望扮演机器的角色。无论未来如何展开,辩论都在预示我们与即将到来的、即将到来的强大的机器智能共存的方式。
更新时间:2025-10-05
本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828
© CopyRight 2020-=date("Y",time());?> All Rights Reserved. Powered By bs178.com 闽ICP备11008920号
闽公网安备35020302034844号