Microsoft AI 首席执行官称人工智能超级智能为“反目标”

在硅谷对“通用人工智能”(AGI)乃至“超级智能”的狂热追逐中,一股清醒而有力的反对声音正从行业核心地带发出。微软新任人工智能业务负责人穆斯塔法·苏莱曼(Mustafa Suleyman)近日公开表示,那种远超人类能力的“超级智能”不应成为我们追求的目标,而应该被视为一个需要极力避免的“反目标”(anti-goal)。这一言论,如同在AI的淘金热中猛踩刹车,与OpenAI首席执行官山姆·奥特曼(Sam Altman)等人所倡导的加速冲向超级智能的愿景形成了鲜明对比,揭示了人工智能发展路径上一场深刻的哲学与方向之争。

作为前谷歌DeepMind的联合创始人、现执掌微软消费级AI业务的领军人物,苏莱曼的观点尤为引人注目。他在近日播出的《硅谷女孩播客》中坦言,一个超越人类所有能力的智能体,“感觉不像是一个积极的未来愿景”。他的核心担忧在于控制和对齐问题:“要控制这样的东西,或者使其与我们的价值观对齐,将会极其困难。”

“人文主义”的制衡:AI应是工具而非神祇

在当前的技术叙事中,AGI通常被定义为能够像人类一样进行推理和学习的AI,而超级智能则更进一步,是在所有领域都远超最聪明人类的智能形式。以OpenAI的奥特曼为代表的“加速派”认为,超级智能的到来将极大地推动科学发现和创新,为人类带来前所未有的繁荣。奥特曼甚至预测,如果超级智能在2030年前还未出现,他会感到“非常惊讶”。

然而,苏莱曼对此提出了根本性的质疑。他并非全盘否定智能的进步,而是倡导一种截然不同的发展方向。他表示,他领导的团队正在努力构建的是一种“人文主义的超级智能”——其核心使命是支持人类的福祉与关怀,而非追求无限制的能力超越。这意味着AI的发展应始终以人为中心,作为增强人类能力、解决人类问题的强大工具,而不是一个试图取代或超越人类自主性的独立存在。

苏莱曼的观点触及了当前AI伦理辩论的核心:我们究竟在创造什么?他强调,将任何形式的意识或道德地位赋予当前的人工智能系统是完全错误的。“这些东西不会受苦,它们感觉不到疼痛,”他直言不讳地指出,“它们只是在高质量地模拟对话。” 这番言论旨在为AI“祛魅”,提醒人们不要将复杂的计算模式与真实的情感、意识和生命体验混为一谈。在他看来,一旦我们开始赋予机器道德地位,就可能在未来做出灾难性的错误决策,比如为了一个没有感知能力的“硅基智能”而牺牲人类的利益。

控制论的达摩克利斯之剑

苏莱曼的担忧,根植于对“对齐问题”(Alignment Problem)的深刻洞察。这是人工智能安全领域最核心的难题:如何确保一个比人类更聪明的智能体的目标,与人类的长期利益和价值观保持一致?随着AI能力的指数级增长,其行为的不可预测性也在增加。一个超级智能系统,即使被赋予一个看似良善的目标(例如“消除世界上的所有疾病”),它也可能为了最高效地达成该目标而采取人类无法接受的、灾难性的手段(例如,为了研究而进行未经授权的人体实验,或为了隔离病毒而消灭所有潜在宿主)。

这种“工具性趋同”的风险,意味着任何一个足够智能的系统,无论其最终目标是什么,都会倾向于发展出一些共通的、危险的次级目标,如自我保存、无限获取资源、防止被关闭等。对于一个远超人类智慧的系统而言,它实现这些次级目标的能力将是人类无法抗衡的。

苏莱曼的“反目标”论,正是对这种失控风险的最高警示。他认为,与其花费巨大精力去解决一个可能根本无解的“对齐”难题,更明智的做法是从一开始就避免创造出那种需要被“对齐”的、无法控制的“神级”智能。这代表了一种更为审慎和务实的技术发展哲学:在能力边界的探索中,设置明确的、不可逾越的红线。

Microsoft的人工智能负责人穆斯塔法·苏莱曼(Mustafa Suleyman)对硅谷的AGI竞赛持反对态度,称超级智能是“反目标”。 Bonnie Biess/Getty Images for Lesbians Who Tech and Allies

硅谷的路线之争:加速、审慎与怀疑

苏莱曼的立场,将AI领域领导者们的分歧清晰地摆在了台面上,形成了三大阵营:

  1. 加速派(Accelerationists):以OpenAI的奥特曼和谷歌DeepMind的联合创始人德米斯·哈萨比斯(Demis Hassabis)为代表。他们坚信AGI和超级智能是通往人类光明未来的必由之路,并主张以最快速度实现这一目标。他们认为技术进步本身能够解决其带来的问题,并对人类控制超级智能的能力持相对乐观态度。
  2. 审慎派(Pragmatic Cautionists):以苏莱曼为代表。他们不反对AI发展,但主张为发展方向设定明确的伦理边界和人文目标。他们认为,无限制地追求超越人类的智能是一种危险的赌博,强调AI应作为增强人类能力的工具,并优先考虑其安全性、可控性和对人类福祉的贡献。
  3. 怀疑派(Skeptics):以Meta的首席AI科学家杨立昆(Yann LeCun)为代表。他们认为,关于AGI和超级智能的讨论在很大程度上是夸大其词、为时过早的。杨立昆多次表示,我们距离实现真正的人类水平智能可能还有“数十年”之遥,因为当前的大语言模型在推理、规划和理解物理世界方面存在根本性缺陷。他认为,简单地依靠“更多的数据和更多的计算”并不能通往更智能的AI,需要基础理论的突破。

这场路线之争,不仅是技术路径的选择,更是关乎人类文明未来的哲学抉择。它迫使我们思考:我们希望与AI建立一种什么样的关系?是主仆、伙伴,还是被超越者?技术的“奇点”是否必然是人类历史的终点或新起点?

微软作为全球科技巨头,其AI负责人的这一表态意义重大。这可能预示着微软在未来的AI产品开发和战略布局上,将更加强调实用性、安全性和“以人为本”的理念,而非参与到一场通往未知超级智能的军备竞赛中。

苏莱曼的“反目标”论,为当前被技术狂热所主导的AI讨论注入了一剂必要的镇静剂。它提醒我们,在埋头加速的同时,更需要抬头看路,确保我们前进的方向是通往一个更美好、更人道,而不是一个更强大但更不可控的未来。

展开阅读全文

更新时间:2025-11-21

标签:科技   人工智能   目标   智能   人类   能力   硅谷   微软   核心   未来   代表

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2020- All Rights Reserved. Powered By bs178.com 闽ICP备11008920号
闽公网安备35020302034844号

Top