大模式是潘多拉魔盒?AI巨头们聚会:怎样把AI关进笼子?

可能从来没有一项技术能像 AI 大模型一样,在短短几个月内迅速成为科技界乃至整个社会的共识。今天,所有科技巨头和主要政府几乎都笃定地认为 AI 将改变世界,改变一切。


但在一个大的共识背后,还有太多问题,一方面是切实的——在工作上的替代、虚假内容的泛滥以及不平等的使用门槛等等,另一方面则是长期以来人类艺术作品里表达的「文明的威胁」。根据《连线》杂志报道,OpenAI 在一份财务文件甚至规定了当 AI 摧毁人类经济体系时的退出机制。


今年 7 月,在 IBM 总部举办的一次活动上,美国参议院多数党领袖查克·舒默(Chuck Schumer)表示,他将召开一系列人工智能会议,「让最优秀的人坐在桌前,互相交流,回答问题,努力达成一些共识和解决方案,参议员和我们的工作人员以及其他人只是倾听。」最终,舒默希望基于会议上的交流,「为人工智能政策立法奠定基础」。


两个月后,会议开始了,包括来自顶级科技公司的 22 位与会者都参加了闭门会议,他们其中有 OpenAI CEO 山姆·阿尔特曼、英伟达 CEO 黄仁勋、谷歌 CEO 桑达尔·皮查伊、Meta CEO 马克·扎克伯格等人,也有上一代互联网的科技领袖微软创始人比尔·盖茨和谷歌前 CEO 埃里克·施密特。


AI 一定要被「管」起来


没有人会否认人工智能的巨大潜力,但关于人工智能的风险、安全措施、监管以及未来,我们还缺少很多共识,唯一可以肯定的是,人类不可能完全放任人工智能的野蛮生长。


图/ Wikimedia Commons


在离开第一次闭门会议后,特斯拉、SpaceX、Neuralink CEO 伊隆·马斯克就公开表示,这次聚会是「历史性的」,他赞同成立一个新的机构来监管人工智能的想法,并重新强调了人工智能构成的巨大风险。


「人工智能出错的后果是严重的,所以我们必须积极主动而不是被动反应,」马斯克说,「问题实际上是一个文明风险的问题,这对世界各地的所有人类都有潜在的风险。」


马斯克没有深入阐述所谓人工智能对人类文明的具体危害,但当人工智能更多地参与到电网、供水系统以及车辆系统的管理控制之中,一旦出错就会带来大量的问题。计算机科学家、人工智能研究人员 Deb Raji 也提到了,人工智能的偏见性决定就影响社会的方方面面。


更何况,还有长久以来人类的对人工智能的担忧。


但要如何减少和防止人工智能带来的风险?微软总裁布拉德·史密斯(Brad Smith)提出,我们需要为人工智能可能形成的巨大风险建立「紧急制动器」,尤其是在管理电网和供水系统等关键基础设施的人工智能系统之中,「这样我们才能确保许多人担心的威胁仍然只存在在科幻小说里,不会成为新的现实。」


布拉德·史密斯,图/ Web Summit


史密斯认为,就像每一栋建筑和家庭中都有的断路器,如果需要的话,可以立即阻止电力系统运行,人工智能系统也需要类似的「紧急制动器」,确保人类不会受到此类系统的大规模伤害。


无独有偶,英伟达首席科学家兼高级副总裁威廉·达利(William Dally)也指出了,人工智能作为一个计算机程序出错的可能和造成的严重伤害,关键在于「人类的参与」,即将人类置于人工智能工作的关键环节中,制约人工智能的一些决策权力。


威廉·达利,图/英伟达


「所以我认为,只要我们对如何部署人工智能保持谨慎,让人类处于关键环节中,从而可以确保人工智能不会接管并关闭我们的电网或导致飞机从天而降,」达利说。


AI 开源会是潘多拉盒吗?


去年年底,ChatGPT 在科技圈内第一次火起来的时候,就有人表达了对 AI 模型被用于诈骗等恶性行为的担忧。开源似乎在加剧了「被滥用」的风险。


在会议上,其中一个争论就是围绕着可供公众下载和修改的「开源」AI 模型展开。这些模型的开放代码能让企业和研究人员得以使用类似于 ChatGPT 背后的 AI 技术,无需投入巨量的资金和资源训练。


但坏人也可能会滥用开源 AI 系统,包括 OpenAI 从 GPT-3.5 开始就停止了开源行为,OpenAI 联合创始人兼首席科学家 Ilya Sutskever 就表示,「几年后,每个人都会清楚地看到,开源人工智能是不明智的。」


Ilya Sutskever 与黄仁勋在 GDC 上的对谈,图/英伟达


被问及原因时,他谈到,「这些模型非常强,而且会变得越来越强,在某个时候,如果有人想的话,很容易用这些模型造成很大伤害。」


另外,DeepMind 联合创始人、Inflection AI CEO Mustafa Suleyman 不久前也提到开源的风险,他指出 AI 开源的关键问题在于,「权力的迅速扩散」将使得单一个体就能对世界造成前所未有的伤害和影响,「在未来 20 年内,天真的开源,几乎肯定会造成灾难」。


Mustafa Suleyman,图/DeepMind


不过 Meta 显然并不同意这些说法,Meta CEO 扎克伯格反驳说,开源将「AI 变得民主化,有助于公平竞争,促进个人和企业创新」。但同时他也表示,开源模式也许会带来危险,然而 Meta 正在尽可能安全地构建这项技术。


当 AI 遇见开源,这依然是一个悬而待决的问题。


写在最后


距今 2104 年前,汉武帝去世七年后,汉廷召开了一场史无前例的策问,其中一个主要的问题是武帝时期实行的盐铁酒国营专卖政策的废立修改,为此召集了「贤良、文学六十余人」以及御史大夫桑弘羊等政府官员,后世称之为「盐铁会议」。不过这场盐铁会议,根本上讨论的其实是汉王朝的经济政策走向。


尽管主题不同,年代环境更是天差地别,但不论两千多年前的盐铁会议,还是现在人工智能见解论坛,都是面对一个巨大的问题,希望通过「群贤」交流辩问,以此作为立法之基础。


图/谷歌


在前不久谷歌 25 周年的纪念文章中,现任谷歌 CEO 桑达尔·皮查伊(Sundar Pichai)写到:


(谷歌)参与有关这些技术将如何塑造我们社会的重要辩论,然后共同寻找答案。人工智能是其中的关键部分。尽管我们对人工智能造福人类和社会的潜力感到兴奋,但我们知道人工智能与任何早期技术一样,也带来复杂性和风险。我们对人工智能的开发和使用必须解决这些风险,并帮助负责任地开发技术。


几天后,包括 Adobe、Cohere、IBM、英伟达、Palantir、赛富时、Scale AI 和 Stability 八家成为第二批签署「负责任地开发人工智能(AI)技术」协议的公司。很多时候,面对单个个体或者单个公司/政府无法的解决的问题,我们必须意识到「共同努力」的价值。



展开阅读全文

页面更新:2024-03-12

标签:潘多拉   关进   史密斯   英伟   人工智能   笼子   共识   模型   聚会   人类   风险   模式   会议   系统   技术

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2008-2024 All Rights Reserved. Powered By bs178.com 闽ICP备11008920号-3
闽公网安备35020302034844号

Top