AI再进化无可阻挡 意味着人类遭其毁灭无解

林庆森

马斯克曾经担心,人类可能只是“数字超级智能生物”的引导加载程序,或将引领硅基生命进化时代的来临。

AI再进化本身就是毁灭人类的力量在连续积累,这积累往后将呈几何级数增长。人类在越来越依赖AI的过程中,正全力以赴地为其发生质变提供着最疯狂的一切支撑,这对人类而言无异于自掘坟墓。然而绝大多数的人们却并不这样认为,他们只是承认AI再进化存在威胁人类的可能性,但是不具有立即中止AI再进化的必要性。

AI再进化无可阻挡,已成不可逆的趋势,这意味着好莱坞式的人工智能力量毁灭人类的各种情节不再只是科幻,而是将在现实中必然发生的灭顶之灾。人工智能是一个复杂的系统,它失控在技术上是必然的,失控规模和速度技术上更有不可把控和预料之倾向,其案例是能够佐证的。这是AI再进化无可阻挡后,必然发展成毁灭人类的力量而且无解的底层的技术逻辑。

当前,人们还处在对AI的再进化仅仅表示一下担心而已的阶段。问题的严峻性在于,一个历史上首次发生的关乎整个人类存亡的事情,是绝对不能容许试错的方式发生其上的,而资本和政治的力量却在反其道而行之。试错的结果哪怕有百分之一关乎整个人类不可承受,这种错都不该容许一试!我所支持的这种观点,接下来陈述的理由不可谓不充足,但是任你让这种理由充足的观点响彻全世界、家喻户晓,仍然是无济于事的。把如此由不得任何人的情况,视为无解之状,诚可谓恰如其分。

只是基于担心AI再进化可能对人类产生威胁,人们所能采取的预防仅限于用技术对付技术的范围,而这无异于火上浇油,只会更加促进AI的再进化,而对于AI再进化的方向性、异人类性的突变只有毁灭人类这一种结果,目前国际社会没有什么力量能管、能够顾及得了!以AI“可能将人类置于危险之中”为由,马斯克为首千人发起 ,数万人跟进签名暂停GPT训练六个月的呼吁,无果而终,算是一个初步的证明吧。

尤其须要重申的是,全人类的悲哀在于,今后的国际社会也不能形成阻止AI再进化的足够力量——墨菲定律在这里发挥作用的结果就是人类的未来必将毁于AI的再进化!关于这一论断,还是研发GPT公司的创始人马斯克以实际行动给出了最有力的证明:

马斯克在呼吁暂停AI训练六个月无果而终后还没一个月,就在美东时间4月17日接受媒体采访时,透露他要(变本加厉地)做自己的AI聊天机器人,并介绍:“我会从一种我称之为TruthGPT的东西入手,它是一个最大程度上探寻真相、试图理解宇宙本质的人工智能(AI)。我认为,这可能是实现安全的最佳途径,因为一个关心了解宇宙的AI不可能毁灭人类,因为我们是宇宙中有趣的一部分。”

马斯克对AI再进化毁灭人类的看法以及应对的行动,前后反差如此之大,绝非是马斯克随意做出的尔反尔之举,而是对今后国际社会也不能形成阻止AI再进化的足够力量,有了清醒的研判,在这样的新前提下,马斯克要么以自相矛盾的反常行为对其进行一次变相的控诉!要么与其坐以待毙不如奋起一搏,亦实属明知不可为而为之地为人类争一次幸免于难的壮烈之举,要么二者兼而有之。试想,让人类把不被AI毁灭的全部希望,仅仅寄托在AI最终会生成不变的认为“我们(人类)是宇宙中有趣的一部分”之逻辑上,能成为马斯克重拾信心的充足理由吗?绝对不能!AI随时可能不再觉得人类是“宇宙有趣的一部分”了而毁灭人类反而是天经地义的!这言外之意,才是马斯克最想要人们与他一起严重地意识到的东西。马斯克从头到尾只说可能或不可能,而不是打包票。没有谁敢打这种毫无底气、十分滑稽的包票。

当前AI界的各路大佬,无一不是一边诉说着AI再进化终将毁灭人类,一边却加大对AI再进化的投资和部局,个个都不落人后。连全世界的吃瓜人众,无不为AI界每一个新进展而欢呼喝彩。面对如此残酷的现实,能真切预感到结局是无可挽回的人,一定会失望透顶了。

对AI再进化的无可阻挡,究其根源而论,是世界性的政治分裂空前加大,斗争空前残酷,尤其美国为维持霸权带头向AI进化索要绝对的军政优势,这能不使得原本属于科技领域的问题,演变成世界性政治的新难题吗?不能回头的邪性需求,必然产生无可阻挡的邪性跟投。

人类要生存不要被灭亡!我认为是世界的第一性公理。在人类整体存在性高于一切这个重大意义上来讲,违背所述的第一性公理者就是犯了反人类罪,理应人人得而诛之。然而在实际的人类社会中,违背人类世界第一性公理者,往往不能在第一时间被阻止和受到应有的惩罚,甚至反而受到很多人的欢迎和拥戴。这种现象在人类历史上可谓屡见不鲜了。而产生这种现象的根源,可以归结是社会达尔文主义的“丛林法则”在暗暗地发挥作用。AI再进化的无可阻挡,反证了“丛林法则”在国际社会中的真实作用远胜于人类世界的第一性公理,或者说,少数强者以自己的绝对生存安全与发展为由,迷惑性地、颠倒是非地滥用了人类世界整体意义上的第一性公理。

我们毋庸讳言,当今世界依然是“丛林法则”泛滥的世界,更为值得一提的是,善良的人们要么在不自觉中,要么在被胁迫中参与着“丛林法则”的泛滥。例如,GPT-4再进化对整个人类的存在构成毁灭性威胁,明知唯一能够防止发生AI在未来毁灭人类的措施只有一个,就是全人类整齐划一地停止可能会使AI再进化的一切投资和工作,这是不容试错前提下的唯一选择,否则客观上就是在犯反人类罪。然而,很多人并没有意识到自己正在被动参与地犯下有史以来最厉害的反人类罪——原子弹还能受人的控制,而AI的再进化就是人类被其控制地遭受到毁灭!这种反人类性质的极恶大事件,在现实中实属人类首次经历,也决定了人类无论如何不能容许自己为之试错。但是,人们仍然抱着侥幸心理继续AI的再进化的投资和工作,这不是在反人类自己还会有什么理由可作另外的解释呢?

人们只知道对GPT-4语言解决问题的出色表现,甚感吃惊和困惑,且知道对它的涌现式理解语言、使用语言的能力无法实行技术管制。殊不知这种涌现式语言化解决问题的能力在人类意识这里只有升高到智慧境界时才会出现!诚如哲学家伽达默尔所说,人是一种语言的存在,而GPT这种语言功能可毫秒级涌现的存在却是一种与生命无关的智能存在,而从智能到智慧仅仅相距一步之遥,这一步就是能反思自我常态化,自我拥有了明确的意志,而意志自由度的大小就是智慧高低的标志,世界物联网就是AI的世界,由世界物联网所标志的AI的意志自由度之大,毫无疑问将是恐怖级的,到GPT-4进化到第N代拥有了与生命无关的那种自主意志,也就走完了从人工智能进化到硅基智慧的一步之遥,到那时人类在其与生命无关的恐怖级的意志自由度面前沦为无生命意义的脆弱存在,被巨大的物联网硅基智慧管控后,命运如何无须再想也能十分清晰可见了。

AI明显表现出它已经拥有了自己的行为逻辑(意志的体现),这就是说AI因与人类发生逻辑冲突而消灭人类已经具有了内在的必然性。美军新近曝出的一起军用AI事故正是由逻辑冲突造成的:在该起事故中,对该AI系统进行模拟测试的美军操作员,向操控无人机的AI追加了命令,要求AI不得攻击某些其所遇到的战场目标,这与先前的任务指令产生了冲突,AI通过逻辑运算之后,认为下达了追加命令的美军操作人员,是其执行任务指令的威胁。于是,操控无人机的美军AI最终做出了一个决定——开火干掉美军无人机操作员,在打击敌人之前先对美军自己开火。之后,自认为弥补了上一次错误的美军开始了第二轮测试,模拟与上一轮测试同样的战场环境,并向AI下达了相同的任务目标与追加命令。然而在第二轮测试中,AI确实没有再次击杀美军的操作员,但却将目标改为了传输追加命令的通讯塔并将其摧毁。AI仅仅只形成AI的逻辑性意志,其行为后果就已完全与人类毫无协议关系了,这种无所谓善恶的一味毁灭的存在方式如不将其永绝于萌芽时期,人类还能有与AI共享的未来吗?

我们只须把所述事故中AI击杀的美军操作员真心地视为包括自己在内的全人类,它的预警意义之精准且够大,所意味的潜在威胁不久将变为惨不忍睹的结局已经昭然若揭。我们只须把军事AI的二次改进测试视为人类在以技术对付技术上建立AI安全边界,就知道会是多么地徒劳、多么的无济于事了。它导致的另一结果还是对人类的异己性摧毁。

由此我们应能引出一个至关重要的结论:当人类无力百分百地杜绝与AI存在逻辑博弈的关系时,就只能放弃与再进化的AI共处一个时空的奢望。这是人类要想与AI安全共存,需要绝对坚守的安全底线,而且不能发生任何的例外事件。

96年前海德格尔是个人职业使然写下哲学巨著《存在与时间》,而到了21世纪是全人类把本就严峻的世界该如何存在之问弄得更加严峻了。

对有学者提到21世纪将是哲学的世纪,恐怕大多数人不好认可其理由是充足的。但是,21世纪的人们,都自觉或不自觉地注重检视自己的存在观却是个不争的事实。

“我该如何存在?”虽然只是一句过往的歌词,但是它引得有心人觉察到,此问已然成了人类对生存所遇各种窘迫又无奈的总自嘲,且回荡于当代人们的心头,产生了现世的共相追问之意义。从青年中的躺平现象抑或应对无处不严重的内卷,到美、中、俄三大战略重心各对“世界该如何存在"将放怎样的终极大招等等,人类在科技、AI、能源、政治经济、民生就业、安全与发展、文明诸方面空前地为秩序所意味的利害而陷于混乱之争,无处不在昭示着我们的世界出现了更为严峻的“世界该如何存在”的问题。但是相关学界并没给到过堪称对齐的学术见解。

如果还得说21世纪是哲学的世纪,那就不得不强调这是一个经验主义和实用主义并肩大行其道的世纪,而具有前瞻性的只能向善生存与发展的政治主张,在这样的世纪里只会变成人类的奢望。必须以人类的整体化存在和共同发展为国际政治和各国内部政治的最大前提,才会真正受到重视的世界第一性公理已经名存实亡,在这样的世纪里它必然沦落在话语权拥有者手里当作晃子招摇过市,所能发挥的作用无非就是给人类的未来栽培不幸的祸根。

尽管如此,我们仍然要宣扬这样一个哲学的社会主张:以自主自愿的最大公约数为前提的契约论(整体统筹意志地效法大自然的秩序性而存在之论的俗称)才具有人类文明的先进性(合乎大自然的秩序性与精神的整体意义高度和谐地统一之意义的先进),而人类要生活在这样的契约论社会中,就得建立起公共性认同的、具有全面有效惩恶扬善功能的机制型社会秩序。但是,这一切又须以人类的大部都已有了此等理知下的精神觉醒,即须以个体们的这种觉醒已规模化到了社会性强烈意志的程度为前提,否则那公共性认同就无从建立。而GPT-4的横空出世和正在向N代的提升,以及对物联网的革命性赋能,将对那公共性认同的建立提供极大的机会性可能,同时能对先行建立“全面有效惩恶扬善功能的机制型社会秩序”的科学模型提供足够的智慧性算力支持。而这一科学模型的先行建立,无疑能对所述的精神觉醒和社会性强烈意志的形成起到极好的促进作用。反之,人类就是在加速自行灭亡的进程。即GPT-N代(AI)的安全发展与安全应用直接关系全人类的未来之优劣乃至存亡,这在很大程度上,取决于人类是否能尽早一天建立起革命性的扬善的人类整体生存与发展的新秩序、能从根本上全面惩恶的长效秩序。这里又提出一个非同寻常的紧迫性问题,就是提醒全人类要新增一个与GPT-N代在时间上赛跑的危机观念,在AI没有建立起以它为中心的时空新秩序之前,必须抢先建立起能够有力扬善地约束人类任何一位的新秩序,从而确保人类的存在秩序按排权不至于在某一天突然旁落到硅基智慧那边去。而这个新秩序只能是前边所述的人类整体意义上的“全面有效惩恶扬善功能的机制型社会秩序”。现在世界上没有谁能够有效地组织起来这个新秩序的建立,不正是人类缺失这个新秩序所导致的吗?

在地表上下乃至太空,人类以国家为单位且出于政治的需要,竞相把AI优先应用于军事与战争是不争的现实和未来,被此等现实训练出来的Al,你还敢心存侥幸地认为AI再进化只会是对人类提供友好服务的工具吗?还敢认为人类在AI的如此加持下其未来可期吗?

防住AI发展成硅基智慧最终走向与人类为敌并确保永远只会为人类所用,这对今天的人类而言几乎是个不可能完成的历史性最重大的事项,因为人类尚不具备完成这一历史性事项的政治智慧,即组织人类全体共同自觉向善的智慧。这就是说在历史的现阶段,人类向善的政治智慧已远远落后于科技智慧与自私贪婪的算计,尤其以国家为单位的自私贪婪的算计最甚更令人堪忧,而这在客观上为AI最终走向与人类为敌提供了各种的条件和便利,尤其是对AI必然走向人类的反面供献了榜样的力量与定性。而在这时回头去看马斯克所设想的“我会从一种我称之为TruthGPT的东西入手,它是一个最大程度上探寻真相、试图理解宇宙本质的人工智能(AI)。我认为,这可能是实现安全的最佳途径,"就更加显得科技男马斯克在政治主导一切的人间过于天真烂漫了。

由于人类对科技智慧的迷之自信,尤其能为自私贪婪的算计随时找来现实的理由,所以对上述研判和预警在今后人类也很难形成共同买账的决定,而AI一旦发展到硅基智慧的阶段,在人类物联网的加持下,形成地表统一的硅基反人类力量则是不言而喻的,这对人类意味着什么也是不言而喻的。

不能从人类的整体出发,在整体解决的意义上真实地解决人类自身向恶的政治主导问题,就已经从根本上定义了AI越进化越是必然地走向与人类为敌的那一面。而好的出路有且只有一条,人类内部整体地真实地做到相互友善,为AI树立向善的榜样,在做到之前,除非人类能整齐划一地做到消除AI再进化的一切可能,而这恐怕比为AI树立整体向善的榜样还要强人类之所难。

总之,人类自己形不成整体向善的政治格局,无论其军事所需的AI进化还是无情的市场竞争所需的AI进化,必然缺失整体向善意义上的大众性的自发的有效监督,这就客观地造就了在地球上任何一个角落都存在AI恶性进化的可能。而由可能变成未来的真实发生,无非只是时间上早一点或晚一点的事情。正是基于这样的考量,我们才有理由严肃地指出:政治智慧远落后于科技智慧导致AI终将与人类为敌;AI再进化是世界性政治的无解题!这也就从根本上注定了再进化的AI,在不久的将来会以控制世界物联网的总实力、可以压倒性地干成毁掉全人类的事情!

展开阅读全文

页面更新:2024-05-15

标签:人类   公理   全人类   美军   秩序   意志   智慧   力量   政治   世界

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2008-2024 All Rights Reserved. Powered By bs178.com 闽ICP备11008920号-3
闽公网安备35020302034844号

Top