
最近,一封由非营利机构“生命未来研究所”发起的公开信在科技圈内外掀起不小波澜,这封信征集到了上千位各界知名人士的签名,共同呼吁在全球达成明确的安全共识之前,暂停对超级人工智能的进一步研发。
这不是第一次有人对AI的飞速发展提出警告,但这次联署的阵容之强大、涉及领域之广,确实让人忍不住多看两眼。从图灵奖得主到商业巨子,甚至皇室成员都参与其中,反映出人们对超级智能的忧虑已跨越了专业界限,成为全社会关注的焦点。
而与此同时,人工智能行业内部也出现了前所未有的意见分化,有人视其为生存威胁,有人则认为纯属杞人忧天。那么,这场争论究竟从何而来?我们又该怎么看待它?


这封公开信的核心诉求其实并不复杂:在确保超级智能系统能被完全掌控、且获得社会大众广泛认可之前,所有相关研发应当暂时停止。
信中提到,目前不少人工智能实验室正在争分夺秒地开发能在几乎所有认知任务上超越人类的系统,而这一趋势如果不受约束,可能会带来不可预估的后果。

签署这封信的人士来自各行各业,除了大家熟悉的“AI教父”辛顿、本吉奥和姚期智这样的学术权威,还有像苹果联合创始人沃兹尼亚克、维珍集团创始人布兰森这类商界名人。
单里还出现了哈里王子夫妇、前白宫顾问等政治与公众人物,显示出这一议题已经跳出科技圈,成为文化和社会议题的一部分。
这么多人站出来,不是为了反对技术进步,而是希望技术在发展的同时,不要跑在社会共识与安全防护的前面。这也让人不禁思考:如果连这些行业内外的精英都感到不安,那我们普通人是不是也该多留个神?


公开信中列举了几类可能由超级智能引发的危机,包括经济结构剧变、人类对自主系统失去控制、个人自由受侵蚀,甚至不排除出现威胁人类生存的极端情形。
历史学者赫拉利更是用了一个形象的比喻,说超级智能可能会击垮“人类文明的操作系统”。这些听起来有点像科幻情节,但背后有不少人当真。
一份同期发布的民意调查显示,超过七成的美国民众支持对先进人工智能实施严格监管,六成以上的人认为在安全措施到位之前,不应贸然开发超级智能。

这些数据说明,公众对AI的快速发展并非全盘接受,而是抱有相当的警惕。当然,也有人觉得这些担忧被放大了,毕竟技术历来都是一把双刃剑,不能因噎废食。
但不可否认的是,当这么多普通人和专家同时发出警示,至少说明这个问题值得认真对待。有意思的是,尽管舆论压力不小,AI的开发脚步却一点没放慢,行业内部的分歧越来越公开化。

人工智能领域如今明显分成了两大阵营:一边是以辛顿、本吉奥为代表的“谨慎派”,他们从伦理与生存角度出发,呼吁放缓脚步、优先确保安全,另一边则以Meta的首席AI科学家杨立昆等人为主,属于“乐观务实派”。

杨立昆就公开批评过一些同行,说他们一边高调警告超级智能的危险,一边又在实验室里埋头研发同类系统,这种做法在他看来有点“言行不一”。他认为,现有的大模型能力被高估了,离真正威胁人类还差得远,没必要自己吓自己。
另外,像《人工智能:一种现代方法》的作者罗素也指出,眼下对AI的过高期待可能酿成类似互联网泡沫的信心危机。
不过他也强调,这次公开信并不是要求全面禁止AI,而是希望企业在推进技术时,先把安全基础打牢。就连OpenAI的高层也坦承,当前这股AI热潮和当年的互联网泡沫确有相似之处。不管是乐观还是悲观,大家都认同一点,那就是AI的发展路径需要更多对话与共识。


人工智能不再只是实验室里的代码游戏,而是关系到每个人生活与未来的社会议题,从公开信到民调,从学者警告到企业竞争,各种声音交织在一起,恰恰说明这个行业在快速成长中逐渐意识到自身的责任。
技术的进步从来不是问题,问题在于我们如何引导它,与其因恐惧而停滞,不如通过加强科研伦理、推动跨领域合作、制定透明规则,来平衡创新与安全,AI的未来应当是由人主导、为人服务的,它可以是提升生活质量的工具,而不是取代人类的对手。
更新时间:2025-10-25
本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828
© CopyRight 2020-=date("Y",time());?> All Rights Reserved. Powered By bs178.com 闽ICP备11008920号
闽公网安备35020302034844号