ChatGPT火爆出圈,能碾压人类统治世界的人工智能要来了吗

这几天ChatGPT火爆出圈,继几年前的阿尔法狗之后,再一次引起社会对人工智能的关注。OpenAI的联合创始人马斯克评价道:“好得可怕,我们离强大到危险的AI不远了。”

AI似乎现在表现出了不亚于人类的创作力,会写作文、编代码、创作极具想象力的绘画作品。

那个能够在智力上碾压人类,替代人类统治世界的,危险的机器真的就快出现了呢?

直接说结论:如果目前的算法和技术没有根本性和突破性的进展的话,人工智能的理想依然遥不可及!

这个结论中的人工智能,指的是的大众理解的那种有独立思考能力的人工智能。

大众认为的人工智能和业界目前实现的智能是完全不同的两个东西。

按目前的通行的方法,通常把人工智能分为三个级别:

  1. 弱人工智能。能且只能解决特定领域问题的工作。不具备推理和创造能力。
  2. 强人工智能。 可以代替人完成人类所有工作的人。具有推理学习能力,能理解人类自然语言和并和人类直接沟通。
  3. 超人工智能。能超越最聪明的人类,创造出人类无法创造出来的知识理论和产品。

目前业界实现的人工智能,包括碾压世界冠军柯洁的阿尔法狗,和当前火爆的ChatGPT都是弱人工智能。

而大众认为的人工智能是强人工智能甚至是超人工智能,类似科幻影视作品里的高智商机器人。

遗憾的是,对于如何实现有类似人的感知,推理,创造能力的强人工智能。目前业界和理论界连一点实际的头绪和方向都没有!

目前的AI的优势仅在于强大的计算能力

阿尔法狗能碾压世界冠军柯洁,它的优势在于计算能力而不在于推理能力。现在的ChatGPT之类的AI的创造力依然是来自于强大的计算力。

事实上,围棋,象棋这类人类智力竞技游戏,本质上也不是比拼得推理和逻辑分析能力,比拼得是记忆力和计算能力。

前面的布局依赖于对各类布局优劣的熟悉程度,后半盘棋盘缩小后就是完全比拼计算能力。所以现在的围棋世界冠军越来越年轻化,年纪大了,计算能力下降,棋力会下降。

而记忆力和算力正是计算机具有的碾压人类的优势。

媒体宣传人工智能往往强调围棋的胜利证明了人工智能解决了复杂问题。其实,严格的讲,围棋是一种简单的计算难度非常大的游戏,而不是复杂的游戏。

相对于其他游戏,它的规则最简单,说它困难,是可能性太多,每一步选点的优劣很难判断。

但是棋盘上每个点的价值不一样,它已经不是不可计算的问题,只是计算量太大,原来的计算机不能在有限时间内完成这样的计算,才把战胜人类的时间拖延到前几年。

通过图灵测试就是实现了人工智能吗?

人工智能的设想早在上个世纪80年代就由图灵提出来了,他同时也是计算机科学之父,参与了早期的计算机研发。

图灵还提出了确认人工智能是否实现的标准——图灵测试:如果人类不能发现与他对话的是一台机器,那么可以认为机器已经具有了人工智能。

前些年有人工智能产品宣称通过了图灵测试。然而,图灵测试并不是一个标准的测试。

不记得以前在哪里看到一个姑娘说不论何时什么场景,安慰一个电话里抱怨的闺蜜只需要三句话;

嗯(第二声)

啊(第二声)

怎么这样?

随机组合运用即可。这姑娘简直是开发通过图灵测试程序的天才!提供了一个不到十行代码就能实现的解决方案。

根据一些人社交网站上聊天的糟糕体验,我们还可以提炼一个更简单的解决方案:

嗯(第二声)

哦(第三声)

呵呵

事实是,那个号称通过图灵测试的程序就是用一些模棱两可,没有实际含义的对话通过测试的。

不过呢,对于普通人来说,只要和目前的各类聊天机器人比如siri,小冰对话看看能不能很快确认对方是个机器人就能知道人工智能的实际进展了。

你们和ChatGPT对话时觉得它水平更像人类了吗,已经看不出来它是机器了吗?

语义识别和无人驾驶更能反应目前的人工智能水平

聊天机器人涉及的人工智能领域专业术语,叫自然语言的语义处理。

另一个普通人容易观察人工智能实际进展的领域是无人驾驶。

目前真正意义上的无人驾驶的进展情况是,一线的工程师还在采用面向DEMO编程的前沿工程方法实现企业高管的伟大梦想(为高管和媒体吹过的牛做演示道具)。

由于本质上目前的人工智能算法还是统计和拟合,这两个领域的实现目标难度非常大。

语义识别的麻烦是人类识别语义的时候是依赖于上下文和对话场景的,如果说上下文还有能数据化的话,对话场景这个就不好数据化了,人类语义理解还大量依赖表情和肢体语言,这个就更难搞了……

至于无人驾驶,目前的一个可行的实现方法是对路侧改造。

可是自然语义理解对人类来说不过是个小儿科的任务,人类驾驶也不需要额外增加很多路侧辅助设备。如果这两个领域只能达到目前这个水平的,其他更复杂的场景就更没法指望了。

人类能在信息不完整的复杂情况下做决策

如果有人不相信数学是简单的,那是因为他们没有意识到人生有多复杂——冯.诺依曼

人类对自己拥有的能力早已习以为常了,在感慨人工智能的神奇时,忽略了人的大脑和智能是经过35亿年生物进化的产物,其精巧与高效远超出人类自身的想象。

计算不是它擅长的事情,只比较计算能力的话,不要说现代的超级计算机。它连计算器,乃至于古代的计算工具算盘和计算尺都比不上。

但它帮我们可以处理复杂的人生。现在人工智能取得进展的图像识别,语音识别、基于语境场景对话的这类任务其实对人类来说不过是再简单不过的任务。

就像下围棋这样的事,涉及到的数据相当单一,输入的信息也相当单一。人类世界里有多少这么简单纯粹的事情呢?就在下围棋的同时,柯洁还要吃东西,聊天,识别视野内的各种物体,看各种包装上的包装符号和文字。

要是跟他对战的超级计算机也要同时干这么多事,只把就忙不过来了。

更厉害的事,人类的决策大多是在信息不完整,甚至混杂了大量虚假信息的情况下完成的。

这对计算机来说更是没法办到的事情。

不可计算问题

目前的计算机基础工作原理依然是基于图灵的的通用计算理论和冯·诺依曼的体系结构。

这就意味着它只能解决可计算的问题。那么从理论上说,那些不可计算的问题它是处理不了的。

有一类问题属于数学上可以计算,但实际上由于计算量过大而无法计算出结果。这类问题是在算法时间复杂度上,是指数形式或者阶乘形式。

也就是计算出结果需要的时间随着数据量的增加,呈指数增长甚至阶乘增长。比如直接计算2的N次方或者N的阶乘

那么一旦数据量N大到一定程度,即使消耗从宇宙诞生到目前为止的所有时间也没法完成计算。

这种复杂的问题其实在生活里相当常见,比如如果要去N个地点送快递,如何寻找一条不重复通过各个快递点的最短路径,或者如何使用最少的集装箱把不同规格的大量的包装箱装进去。

一旦没有没合适的近似算法或者必须求最优解,就只能使用穷举搜索的办法,那就会遇到这样的麻烦。这样的问题无法用计算机解决。

不可判定问题

前一类问题是不能在有限时间内计算解决的问题。还有些问题是无法通过计算解决的问题。比如停机问题。

所谓停机问题是说计算机没有办法判定一个程序能不能正常结束,这个问题的另一种表达是计算机无法判定一个程序会不会进入死循环,

这是经过严格逻辑证明的结论。这个问题不是个独立的问题,是代表了一类不可判定问题。这类问题计算机无法解决。

另一个经过证明的命题是不可计算的函数比可计算的函数要多的多。可计算函数对应的是自然数集合的可数无穷大,而所有的需要计算的函数是无穷不可数集合。

通过哥德尔的不完备定理也可以推导出计算机不可能通过计算的方式得到一个公里系统的全部真命题。

而人类似乎可以轻易的归纳识别出真理,比如像牛顿运动定律,爱因斯旦的相对论理论是不可能通过计算机自己推导出来的,而人类可以突破自己的感知限制从一些简单事实中总结出来。

这个总结过程并不是完全逻辑推理的产物,而是依赖科学家个人的灵感产生的创造力。

不可解的复杂系统问题

还有一类不可解的问题是复杂性系统的预测问题。

蝴蝶扇动翅膀可能引发一场龙卷风。蝴蝶效应是对物理混沌现象的类比举例。混沌是一种复杂系统。由于系统的初始状态的微小差异,会导致结果的大幅偏差,整个系统运动的趋势无法预测。这样的现象其实非常常见,气象系统就是混沌系统。去年获诺贝尔物理学奖的科学家就是预测气候变化的。

复杂系统在现实世界中非常广泛,除了混沌,还包括凝聚态物理,非线性动力学,复杂系统生物学,数学中的分形,复杂经济学…

单独的蝗虫危害性不大,一旦聚集成群破坏性惊人,高度自组织的蜂群,蚁群,都属于复杂系统。

人类社会系统更是更加复杂的系统。

复杂系统的研究发展揭示了还原论方法的缺陷,我们这个世界不能被简单分解成各部分分开研究,微观领域的规律和组合后的系统规律可能完全不同。

目前虽然计算机无法预测复杂系统的未来演化过程,但是可以模拟和仿真来帮助人类研究和理解这类系统。

不可预测的的非理性世界

图灵在提出图灵机的概念时,就证明了停机问题是不可判定问题。但他认为人脑的推理过程和图灵机其实是类似的,不过也是个机械的计算装置。计算机不能解决的问题,人类的智能也不能解决。

把人类的智能能不能解决这些计算机不可解的问题暂且搁置一旁。人类社会和整个地球生态系统是个超级复杂系统确实确定无疑的。人类天天在这个系统里生活,与之发生互动肯定无法仅仅依靠计算来决策的。

卡尼曼把人类的思考活动分为慢思考和快思考,他认为人类生活中的大部分决策依赖的是直觉式的快思考。也就是说,非理性才是人类思考的常规操作模式。

嗯,我们生活的这个世界并不理性,充满了各种意外和惊奇,人类用非理性的思维方式来应付这个非理性的世界。

大脑这个非理性的工作方式还触及了一个哲学问题:人类真的存在独立意识吗?如果我们所谓的自主决策不过是类似生物条件反射的应激反应。

然而,这个看起来非理性的决策方式很多时候并不比计算的结果差,比如围棋高手们很多时候的选点虽然没那么好,但是也是相当好了,不是醉汉式胡乱随机选择。似乎人类很多不理性也具有相当的理性。

人类经常靠非理性的经验和直觉解决问题

到目前为止,人类处理的大多问题都不是靠计算解决的,

晚上吃什么?选择看那本书?谁比谁更善良?捐款优先用于失学儿童还是改善生态环境?那段音乐更好听…

这类问题基本上都是依赖于人的经验和感觉来决定的。

从我们这些直观感受而言,人类社会的大多事件是不存在数学可计算的普遍规律的,是一系列随机事件的产物。

从人类目前认知自然世界的大历史看,我们生活的宇宙只诞生了一次;地球上的生命只出现了一次,所有生物都来自于远古的共同祖先;有智慧的生物也只产生了一次。

说这些事件是客观规律发展的必然结果,不如说更像是众多机缘巧合偶尔形成的结果。

量子微观世界的不确定性也在告诉我们,随机性,不可预测性才是这个真实世界的常态。

如果这才是世界的本质,图灵机无法产生类似人类的智能的。人类的那些所谓非理性的,甚至情绪化的思维方式都是人类智能的关键组成部分。而这部分能力是无法靠计算实现的。那么现有的算法和计算机结构没有根本性的改变的话,强人工智能是不可能实现的。

主观感觉对于智能的重要意义

机器没有感觉,无法理解输入信号的实际现实含义,目前的计算机只能处理经过人工处理转换过的规范化的数字信号。

人类处理的信息来自于自身的感觉,这个感觉有很强的主观性。也就是说,计算机能够接受的信号不过是基于人类自身偏见和认知局限性转换过的信息。

它不是来自于原始世界的直接可靠信息,如果没有人类的前置性信息处理工作,它根本无法工作。

而人类的很多感觉,仅仅对人类自身有意义。如颜色本质上可怜光是一种电磁波,我们能够看见它是视觉和大脑给我们提供的一种感官想象。比如温度,其实是微观粒子运动的宏观特征值。

按我们的视觉感官看到的世界,和真实的世界的样子并不一样。计算机依赖于人类的认知,也就自然被局限在人类的认知范围里。

还有些感受无法量化传递给计算机,比如喜怒哀乐这种带有强烈个人主观性的情绪。还有善恶,好坏,公平正义这类人类价值观。

如果计算机只能接受到人类感官的信息的微不足道的一小部分,它又如何能发展出与人类相当的智能呢?

有限的人工智能商业应用场景

上个世纪70年代初和80年代初经历过两次寒冬以后,人工智能的研究就从创造通用的类似人类的智能思考机器上转向了一些具体的问题,语音识别,计算机视觉,自然语言处理…

以ALPHA狗战胜李世石,柯洁为标志性事件,开启了第三次人工智能热潮。ALPHA狗、ChatGPT所用到的神经网络,深度学习算法早在上个世纪就被提出来了,算法上没有根本的创新。算法的本质是还是基于大数据的统计,归纳,拟合。而不是推理,分析。

实现的也都是弱人工智能,仅仅是在视觉,语音识别,游戏等等几个的人工智能细分领域取得了突破性进展,从技术上来说有它的价值和意义,然而对于实现强人工智能来说基本上可以说是毫无进展。

从商业应用的角度来说,商业落地非常碎片化,只能用在一个实现场景里面的一个具体功能,比如没有自然语言语义识别,纯粹的语音识别没法完成一个完整基于语音的交互。否则真的可以大量替代目前的文本菜单按钮的交互模式了。

目前的ChatGPT其实能实现具体几个单一创作功能,也并不能植入实际商业场景中,完整地替代一个人的交互式工作。

应用商业化尚未展开,伦理道德的问题已经出现了,比如大数据包括人脸搜集的隐私问题。还有更复杂的类似无人驾驶遇到电车难题的问题,依赖程序决定牺牲谁实在是很难接受的事情。

这也限制了目前人工智能商业应用领域。

人工智能理论上依然存在实现的机会

目前没有理论证明强人工智能不能实现。但随着对人类自身的了解,现在越来越多的认为人的感觉和非理性的决策,包括那些看起来不可控的情绪化反应都应该是视作人的智能的组成部分。

与目前的计算机实现的只能解决某个很窄的领域,基于特定的数据输入和确定的规则进行决策不同。人类是基于不确定的场景,不确定的综合类信息进行决策,在这方面的能力而言,ALPHA狗智能水平还不如一个五岁的小孩子。

由于算法上没有新突破,商业化应用领域拓展有限。近两年,人工智能的热潮又在消退,有人又开始讨论第三次人工智能寒冬是否正在到来。

我们先把人工智能可能引发的伦理问题放在一旁。从行业实际进展看看,有那些新的技术能够提升目前的弱人工智能水平,说不定哪天量变到质变,就找到实现强人工智能的方法了。

可能的实现途径(一)——量子计算机

首先呢,量子计算的进展会提升人工智能的水平。从理论上讲,量子计算机可以指数级别的提升计算机的算力。

一台量子计算机的可能具有的计算能力,可以轻易超过目前世界上所有计算机计算能力的总和。

目前的第三波的人工智能取得的突破其实就是计算机算力的突破,神经网络算法上个世纪已经提出,但受限于当时计算机的性能没能去的进展。

量子计算机即使如理论预期一样能够指数级别的提升计算机的计算能力,然而它在本质上依然是一台图灵机,它无法从根本上解决那些算法时间复杂度是指数级别或者阶层级别的问题,也无法解决那些不了判定的问题。

也就是说,仅仅靠算力的提升只能一定程度提升目前的弱人工智能的运算能力和应用范围,不能就此实现类似人类的推理和决策。

可能的实现途径(二)——让它自己进化

另一个方法就是改变软件的算法。有些观点认为人类的智能不是计算出来的,而是进化出来的。

一个小朋友从出生对这个世界一无所知,到掌握很多的知识的过程是学习和经验积累的过程。还有些人类的行为模式即使是先天遗传获得的,那也是生物进化,适应自然世界后积累的经验。

比如你要教一直机器人狗狗学习走路,直接预设规则和算法不算是智能,应该让它自己走,跌倒,撞墙,掉进水里……然后设置奖励和惩罚机制,记住正确的走路方式,这样它就能学会走路了。

这类方法容易和目前实现的深度学习算法,特别是无监督学习算法混淆。但是两者从根本上是不同的。深度学习的内容是预置的,目标的判定规则也是确定的。

而进化类算法学习的环境和目标是开放的,不同的机器狗学到的走路方式可以是不一样的。

这个进化的想法听起似乎不错,然而实现起来非常麻烦,人类智能是地球上生物进化了35亿年的产物。机器需要多久呢?

真正的难题都不是时间问题,是如何给机器提供进化的环境,放到真实的环境进化,它没有感知能力,放到模拟的环境进化,目前没有能力和资金来模拟一个完整的现实世界,也许元宇宙实现会有帮助吧,直接放到元宇宙里进化 可是,那也是和现实世界不一样的环境。

另外一个逻辑缺陷是,这种开放式的进化,机器狗学坏了怎么办,比如好的没学会,学会了骂人,打架、干坏事………

为了出现这样超出预期的情况,就需要为进化的过程或者目标预设规则,那这不又回到了现在的路线吗?而且这种规则预置其实是植入开发人员自身的偏见……

所以呢,到最后还是仅仅是现有算法的改进。还是只能实现为某个特定的领域目标寻找出一个解决方案的任务。

无法实现强人工智能的理想。

可能的实现途径(三)——脑科学的进展和限制

虽然目前人类的知识对于如何实现强人工一点头绪没有。甚至从更基础的哲学层面说,智能到底是什么,我们都没有搞清楚。

感觉是智能吗?原始生物也有感觉。有人脸识别能力是智能吗?某些动物和人类的互动也能看出它们有这个能力?语言能力是智能吗?有些鸟类能模仿人类说话。

有决策能力是智能吗?错误的决策又是怎么回事?走路看手机猜到污水坑甚至撞到树是有智能的表现吗?

不过呢,不管世界是否理性,是不是所有问题可以用计算的方式解决。也不管智能到底怎么定义。现实的世界为我们提供了一个实现智能的实际案例——人类的大脑。

人工智能最后的方法可能依赖于脑科学和仿生学的进展。

现在的神经网络算法就是受到了人类神经元系统的启发。然而,到现在为止,人类其实并不知道神经元系统是如何工作的。

不但人类神经元系统具体如何工作没有搞清楚。实际上,现在是连神经网络算法具体是怎么形成计算结果的人类都搞不清了。

以至于有些学者批评现在的人工智能不过就是调参数撞大运式的黑箱计算。把给人类看病,法官这样的判断性工作全权委托给它们简直是不负责任,它们只能是一个辅助决策工具。

物理规律的根本性限制——能耗和熵增原理

目前脑科学的进展了了解了人类大脑的一些机制和原理,知道了神经元网络之间信息流信号本质还是一些电和化学反应。知道了某些区域的可能的一些功能。然而依然无法回答,意识是什么?感觉是什么?

按照一些现代哲学家的观点来说,意识是什么的问题是哲学上的难问题。即使我们知道了大脑的运作机制,也无法回答意识是什么的问题。

就好像我们知道了视觉的工作原理,知道颜色是电磁波信号转换后大脑为我们产生的欺骗信幻觉。可是我们还是不知道这个感受是什么,红色引发的所谓热烈,热情的感受到底是什么样的感受。

事情似乎又回到了原点,如果连意识,感受是什么都搞不清楚,我们又如何实现真正意义上的人工智能呢?

而且呢,就算知道了人脑的工作原理,我们也未必能使用机械方法完全实现生物方法的系统。

在根本上,人工智能的实现还是可能会受到物理规则的限制。根据热力学第二定律,要维持一个复杂机械系统的有序,需要不停的给系统提供巨大的能量。实际上呢,目前的超级计算机都是耗电大户,能耗都是十几兆瓦。而人类大脑功耗只有20瓦。没有人类的持续高投入维护,一个机械系统,不要说发展出感觉和智能,根本无法自我维持正常运作。

小结

目前的实现人工智能本质上还是统计,归纳拟合数据的相关性。所谓计算机的图像识别,其实是两张图片对应的数据的相关程度,至于图片上的猫到底是什么,计算机毫无概念。ChatGPT的创作活动也一样,它根本不知道自己创作的东西有什么实际意义。

目前实现的这些人工智能本质上与人类的意识和智能毫无关系。和很多科学术语一样,某种程度上人工智能术语被媒体和部分从业人员有意泛化,毕竟能超越人类智能的机器更能吸引眼球和投资。那种有判断力,有自我意识的机器系统的想法更像一种通话。

至于人工智能引发的伦理问题,特别是类似无人机,机器人的军事用途引发的问题,本质上其实是科技发展带来的问题。包括基因技术,生化技术都会引发伦理问题。技术背后的伦理问题最后还是取决于掌握技术的人用它来做什么。

谈到意识是什么,智能到底是什么的哲学问题。人工智能的发展倒是可以反过来帮人类更好的理解大脑是如何工作的。神经网络算法的发展也为大脑神经元的工作方式提供了一个模拟方法。这可能反过来对人类了解自身有帮助。

它也许会帮助我们回答几千年来一直困扰我们的,关于人类自身的终极问题:

我们是如何认知世界的?

所以,人工智能的发展不仅仅是个计算机科学的问题,它是涉及到脑科学、认知科学,甚至于哲学领域的多学科问题。

展开阅读全文

页面更新:2024-03-27

标签:人工智能   人类   世界   语义   算法   火爆   进展   能力   计算机   智能   系统

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2008-2024 All Rights Reserved. Powered By bs178.com 闽ICP备11008920号-3
闽公网安备35020302034844号

Top