中国科学院院士何积丰:AI来了,人类怎样驾驭比自己更聪明的“新物种”

封面新闻记者 欧阳宏宇

AI时代,摩尔定律会失灵吗?社会分工会如何被重塑?人类又该如何应对一个比自己更强大的智能?

中国科学院院士、华科智谷人工智能研究院院长何积丰在日前举行的“瞰见未来”2024复旦管院新年论坛上表示,人工智能的应用使得例行性工作变得更加次要,人们将专注于更高层次的规划和分析工作。他同时建议,年轻人要学会拥抱AI带来的新变化,专精自己的优势和专业领域,不断提高自己的专业水平,“不断接收新信息、拥抱新变化,拓展自己的事业,接触更多的人和行业”。

中国科学院院士何积丰

摩尔定律失灵

AI引发知识革命

1950年,在人工智能启蒙时期,艾伦·图灵提出了著名的“图灵测试”,给出了判断机器是否具有“智能”的方法。自此,人工智能经历了长达60年的漫长发展期。直到21世纪10年代中期至今,人工智能才开始快速发展。

在何积丰看来,生成式大模型时代到来后,对算力的要求是每1至2个月翻一番,摩尔定律远远跟不上,算力基础已经落后于科技发展的需求。“这个阶段深度学习算法不断迭代,人工智能生成内容百花齐放,以AI为代表的革命,实际上是知识生产力的变革,是知识革命,这在人类历史上还没有过记载。”

“人工智能学习知识的速度是人类平均速度的1倍以上,所需时间是人类的40%。”何积丰算了一笔账,人工智能检索知识的时间是人类检索时间的20%。预计2026年后,人类历史上所有有价值的文字数据,智能系统都可以自动消化。

“人类创造了一种物种,比人类学习得快,比人类聪明,但我们有驾驭的能力吗?这是人类第一次遇到这样的问题。过去三次工业革命,所有的东西都是由人创造,人工智能在这方面有明显差别。”何积丰说。

通用人工智能开启

警惕AI潜藏安全隐患

据不完全统计,人工智能的行业采用率达到60%左右,与各行业的关系非常密切,可以说没有一个行业与人工智能无关。那么,好的技术出现后,我们往往会担心安全问题。人工智能的安全隐患客观上会产生哪些威胁?

何积丰认为,由AI产生的安全隐患至少有两个方面。

第一,大模型开启了真正意义上的通用人工智能,人类如何去应对一个比自己更强大的智能?当人类创造出比自己更聪明的“物种”,是否有足够的能力去驾驭?这个问题现在并没有明确的答案,人类还在探索中。有人担心人工智能可能比核武器还危险,需要降低发展速度;也有人认为人工智能推动人类进步,应该尽可能发挥其作用。

第二,大模型的通用能力让其能够应用到人类生产生活的各个场景中,可谓“无孔不入”,一旦AI出现安全问题,其影响将难以预估。

事实上,AI的三要素分别是数据、算力和算法,关于AI的安全隐患早已存在。

在何积丰看来,大模型时代的隐私安全问题涉及三个维度:首先,训练过程会涉及大量用户个人信息和数据;其次,使用过程会涉及很多用户私密信息,这些信息没有受到应有的保护;最后,生成能力让“隐私泄露”的方式变得多样化,也让隐私保护更加困难。

“在提供大模型训练数据的过程中,虽然可以通过脱敏处理使数据更加抽象和类型化,但因为大模型可以进行跨领域的交叉推理,所以依然能够还原原始数据里的信息。”何积丰说,

大模型阶段使用过程需要通过互动进行,系统会将交流数据和训练数据捆绑在一起,记录互动过程中的对话用于下一步训练。除了在训练过程、使用过程中可能发生数据隐私泄露,生成式大模型依靠语料库,还会按照“意志”对数据进行修改,而为搜索引擎建立的数据保护策略对大模型也无法奏效。

“对齐”效应考验技术

更审视人类文化

为了应对安全隐患问题,需要对人工智能进行对齐(alignment)。所谓“对齐”是指系统的目标和人类价值观一致,使其符合设计者的利益和预期,不会产生意外的有害后果。

根据科幻作家阿西莫夫机器人学三定律,第一定律是机器人不得伤害人,或因不作为使人受到伤害;第二定律是除非违背第一定律,机器人必须服从人类的命令;第三定律是除非违背第一及第二定律,机器人必须保护自己。

“然而在实际操作中,做好‘对齐’会遇到两大类挑战。”何积丰指出,第一,对齐的基础——“人类价值观”是多元且动态变化的,对齐需要标杆,而全世界有很多不同的价值观。人类的价值和判定系统本身就充满偏见和矛盾,有非常多相互矛盾之处和没有明确指出的潜在条件。这导致“对齐”成为一项令人眼花缭乱的跨学科研究,不仅考验我们的技术,也在审视我们的文化。

第二,大模型“有用性”与“无害性”两个目标存在冲突。“对齐”会发生另一个悖论。训练大模型价格高昂,例如一个几十亿规模的大模型,训练所需的电费在100万元左右。而要想训练出一个“不会犯错”的大模型,那么“什么都不回答”,选择“躺平”反而是最有可能实现安全性的——这就导致人们在大模型的可用性和安全性之间面临艰难选择。

“目前,我们对大模型时代的安全问题依然心里没底,在‘黑暗丛林‘中到处都能感受到安全威胁,但我们找不到安全威胁的源头,往往只能通过打补丁的方法就事论事,找到对付眼前问题的答案,却没有系统的解决方案。”何积丰说。

重构社会分工

AI助力降本增效

事实上,AI正在重构社会分工。

在何积丰看来,此次对社会分工的重构主要体现在两个方面。一方面,人工智能的应用使得那些例行性的任务变得更加次要,一些工作将会由AI来完成。另一方面,人们将专注于更高层次的规划和分析工作。未来的职场将会更加重视发现和解决问题的能力、创造力,以及批判性思维,还有主动学习和获得新技能的能力。

据统计,AI带来的价值增长,约75%集中在四个领域:客户运营、营销和销售、软件工程、产品研发。

在客户运营方面,AI可以改善客户体验并提升客服生产力。例如提供客户自助服务、在初次交流时就提供解决方案、减少响应时间、促进销量增加等。

在营销和销售方面,AI能够提高个性化、内容创建和销售效率。包括高效的内容创建、充分利用不同类型的数据、优化搜索引擎、实现产品和搜索个性化。预计一年能提高8000亿美元生产力,让整体成本降低10%-15%。

在软件工程方面,AI可以作为编码助理加快开发人员的工作,将直接影响软件工程支出的20%-45%。这一价值主要在于可减少部分工作时间,如生成初始代码、代码修正和重构、根本原因分析以及生成新的系统设计等,整体经济效益预计可达4500亿美元左右。每一次软件革新都会孕育新一代超级平台:从早期的windows操作系统,到智能手机的各种App Store;ChatGPT的诞生将产生一种新的社会工业性服务平台,有望成为人人可使用的社会基础设施。

在产品研发方面,AI可以减少研发和设计时间,改进产品模拟。包括提高产品研发的生产力、加速产品上市时间、优化产品设计、改善产品质量。下一步,生物制药工程可能会大量使用AI促进实验,预计降低成本可达10%-15%,产生价值在4500亿美元左右。

不断提高自身水平

拥抱AI时代新变化

其实,AI也可以对社会经济带来正面影响。

据何积丰介绍,目前AI取代人类工作的时间被大幅提前了10年,在2030年至2060年间,50%的职业将逐步被AI取代。AI每年可为全球经济带来2.6万亿-4.4万亿美元的增长,生产力可以提高0.1%-0.6%。

AI也会对个人工作产生重要影响。例如,AI可以使60%-70%的工作实现自动化,对高学历、高收入的知识工作者影响更大。在人工智能不断改变人类社会的今天,人要专精自己的优势和专业领域,不断提高自己的专业水平,思考如何把AI应用到自己的专业中,提高自己的产出效率。同时,不断接收新信息、拥抱新变化,拓展自己的事业,接触更多的人和行业。

“在未来一段时间内,AI的主要研究方向可聚焦几个方面:一是解决软件和硬件的融合问题。二是跨行业的多模态融合。三是提升使用便捷度。”何积丰认为,大模型受欢迎的原因就在于可以使用自然语言。“在人机界面使用自然语言是极大的突破,当界面越容易使用,使用者就越多,市场面也就更广。”

【如果您有新闻线索,欢迎向我们报料,一经采纳有费用酬谢。报料微信关注:ihxdsb,报料QQ:3386405712】

展开阅读全文

页面更新:2024-05-13

标签:中国科学院   人类   社会分工   人工智能   院士   生产力   定律   安全隐患   模型   能力   数据   工作

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2008-2024 All Rights Reserved. Powered By bs178.com 闽ICP备11008920号-3
闽公网安备35020302034844号

Top