AI危机:专家与科技巨头共同发出警告

专家们警告称,人工智能(AI)可能会导致人类的灭亡。

专家和科技企业高层警告人工智能可能导致人类灭亡

在“AI安全中心”网站上发布的一份关于AI风险的声明中,开放AI的首席执行官萨姆·阿尔特曼、Google DeepMind的首席执行官德米斯·哈萨比斯、Analogic的首席执行官达里奥·阿莫代等科技公司的高层都签署了这份声明。

声明呼吁将通过减少AI引发的灭绝风险作为全球优先事项,就像应对大流行病和核战争等社会规模风险一样。

然而,也有人认为这种担忧夸大了。

“AI安全中心”提出了几种灾难情景的假设。

AI武器化:开发的新药工具可能被用于制造化学武器。

AI生成的虚假信息可能会不稳定社会并“对集体决策造成伤害”。

AI的力量可能集中在更少的人手中,国家可能通过“监视和压制性审查”来强制施加狭窄的价值观。

人类可能会依赖AI而衰退,就像电影《机器人总动员》中描绘的情景。

早在此前,乔夫里·辛顿博士和蒙特利尔大学的约书亚·本吉奥教授(计算机科学)就指出了超智能AI带来的风险,并支持这份声明。

辛顿博士、本吉奥教授以及纽约大学的杨·拉卡恩教授被誉为该领域的先驱者,被称为“AI之父”。他们曾在2018年获得图灵奖,以表彰他们对计算机科学的杰出贡献。

然而,作为Meta旗下的Facebook和Instagram的成员之一,拉卡恩教授表示这些末日般的警告夸大了,“对于这些预言,AI研究者最常见的反应就是摇头叹息”。

许多专家认为,AI毁灭人类的担忧是不现实的,而且转移了对已经存在的问题,如系统偏见等的注意力。

美国普林斯顿大学的阿文德·纳拉亚南先生曾在接受BBC采访时表示,类似科幻小说中发生灾难的情节是不现实的。

“当前的AI能力远远无法实现这些风险。结果是,人们对短期内由AI造成的伤害不感兴趣。”

英国牛津大学AI伦理研究所的伊丽莎白·雷尼艾莉斯女士也表示,更令人担忧的是与现实更接近的风险。

“随着AI的进步,偏见、歧视、排斥或其他不公正的自动决策的规模将扩大,这些过程将变得不可理解和无法证明。”

雷尼艾莉斯女士还表示,AI将“加速虚假信息的数量和传播,导致现实分裂,破坏公众的信任。特别是数字分裂将加速错误一方的人们所面临的不平等”。

据雷尼艾莉斯女士介绍,许多AI工具是在“乘车”人类的经验中开发的。许多AI是通过对人类创作的内容、文章、艺术和音乐进行训练和模仿而创建的。结果是,AI的创建者“将巨大财富和权力转交给了少数几个私营企业”。

然而,“AI安全中心”的主任丹·亨德里克斯在接受BBC新闻采访时表示,未来的风险和当前的担忧不应视为矛盾的事物。

“解决今天的问题也有助于解决许多未来的风险。”

专家们和科技公司的高层,包括特斯拉的埃隆·马斯克,今年3月也发表了一封公开信,呼吁停止开发下一代人工智能。

自那以来,关于AI“灭绝”的威胁的报道一直在加速。

这封公开信提出了一个问题:“我们是否应该开发出一种超越我们的数量和能力,将我们变得陈腐无用,并可能代替我们的非人类智能?”

与此相应,这份声明非常简短,旨在“扩大对话”。

声明将AI风险与核战争进行了比较。开放AI最近在其博客文章中暗示,超级智能可能以类似核能的方式受到监管。

“我们可能会需要像国际原子能机构(IAEA)那样的机构来监管超级智能的发展。”

开放AI的阿尔特曼首席执行官和Google的CEO桑达尔·皮查伊先前与英国首相里希·苏纳克讨论了AI监管的问题。

苏纳克首相强调了与AI风险相关的经济和社会利益。

“最近,AI帮助瘫痪人士行走或发现新的抗生素。我们需要确保这些事情能够以安全可靠的方式实现。”

“我希望国民能够放心,政府正在非常谨慎地考虑这个问题。”

苏纳克首相还在最近在广岛举行的七国集团峰会(G7峰会)上讨论了AI问题,并计划在不久后访问美国讨论这个问题。

最近,G7成立了与AI相关的工作组。

展开阅读全文

页面更新:2024-03-12

标签:核战争   可能会   人工智能   首相   巨头   高层   教授   危机   声明   人类   风险   智能   专家   科技

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2008-2024 All Rights Reserved. Powered By bs178.com 闽ICP备11008920号-3
闽公网安备35020302034844号

Top