和全球爆火的AI聊了聊,我可能离下岗不远了?

动动手指,获取新知

本文首发于公众号:小多少年时,由小多少年时原创


有没有发现,这届AI的新闻真是一个比一个惊人。

比如几个月前,谷歌工程师称一款名为LaMDA的聊天机器人已经具备独立人格,并晒出了他们之间的对话(SAN值狂掉!谷歌研究员称AI已具备人格,这是他与AI的聊天全记录(中译文最完整版))人们震惊于LaMDA不亚于人类的语言表达能力,以及对哲学、文学、宗教、人类感受与情绪的独到“看法”;



然而,就在人们还没从震惊中缓过神来时,OpenAI发布的聊天机器人ChatGPT在全球爆火,仅仅5天左右就有超过100万人参与测评,连Elon Mask都在自己的社交平台(你懂是哪个社交平台)上感慨:


“ChatGPT好到吓人!我们离强大到危险的人工智能不远了。”


离强大到危险还有多远咱不知道,但是看了一圈感觉咱打工人离下岗是不远了。

干啥啥像样

堪称AI届劳模


在过去相当长的一段时间里,AI聊天机器人的表现都不尽如人意,比如你手机上的Siri、小冰,通常你需要问它们很多问题,并且在众多问题中不断筛选掉那些生硬的、所答非所问的篇幅,才能使剩下的对话看起来有点意思。


一些人工智能被反复训练一些比较明确的功能,比如当做赛事监督,或者和人下棋,一旦超出它们的“舒适圈”,AI就会出现失控的现象;但是ChatGPT不同,它看起来更加聪明、灵活,更能适应多种语言的应用以及不同使用场景的切换。


作为一款聊天机器人,ChatGPT不仅能回答各种问题,还可以写小说。比如,以“克隆人”为主题,要求它写一篇800字以内的短篇小说,不到5分钟它就写完了。你能看到小说中对于“孤独”、“生命价值”等问题的探讨:


以《孤勇者》为题目创作歌词:


写网页代码,再也不用担心熬夜到秃头了:


甚至能帮孩子解答初中的物理题,连解题步骤也写下来了,堪比一个小型的家庭教师:


而当你去问它一些涉及道德和法律的问题时,它会劝你不要有这么危险的想法:


连加入虚拟的犯罪组织也不行:


比起从前的Siri,以及谷歌、百度这些常常“所问非所答”的聊天机器人和搜索引擎,ChatGPT 似乎更加聪明,更有“道德”。


而且,它不像一般的AI一样,把用户的每一次交流当做全新的指令;ChatGPT能够记得几分钟前用户说过的话、训练过的指令(除非你和它说:忘记我刚刚说过的话)。这不就是老板心目中的全能打工人、模范员工吗?那我是不是就离下岗不远了?


但是,别被它“一本正经”的样子给欺骗了。相比起前面那些“不怎么聪明”的程序,看似可靠的ChatGPT实际上就是个大忽悠,因为它给出的答案经常出现一些“常识性”的错误,但是说出错误答案的时候语气又是那么坚定、那样的信誓旦旦。



比如你问它中美洲最大的国家是哪里,它的回答是巴拿马,但是实际上中美洲最大的国家是尼加拉瓜:


王维和张飞都是沈从文笔下的人物,这也只有赛博脑的AI才敢想吧:


它不太擅长数学,却又能把解题步骤写得天花乱坠,好像多写一个字就能多点步骤分一样:


以至于人们感叹到:ChatGPT是一个功能强大的聊天机器人,它可以出色地回答你的任何问题,但它说的话你最好一个字也别相信。

AI为啥会犯错?



想要弄清楚这个问题,我们得先了解 ChatGPT是如何工作的。


五年前,谷歌和 OpenAI 等实验室的研究人员开始设计神经网络,分析大量的数字文本,包括书籍、维基百科文章、新闻故事和在线聊天日志。科学家称其为“大型语言模型”。这些系统识别了人们连接单词、数字和符号的数十亿种不同模式,学会了自己生成文本,也就形成了我们看到的ChatGPT。


想象一下,很有可能你留在某些社交平台上的一些“痕迹”,成为了这些AI的学习对象。

“今天被一个地狱笑话戳中笑点,功德锐减10086,一会去敲电子木鱼……”

“今天又看了一个减肥视频,看了就等于瘦了……”

“我知道你很急,但是你先别急……”

……

好了,想想人类在网络上留下的文字如此“不靠谱”,似乎学习人类语言的AI偶尔闹些笑话也变得容易接受起来了。


基于网络上海量真实的文本进行训练,ChatGPT能够尽量模仿人类的方式去说话,但是它可能并没有真的“走心”地理解这些句子究竟是什么含义,因为它不具备人类一样的逻辑思维方式。


比如,当我们和一个人说:嗨,你知道《红楼梦》这部小说表达了哪些主旨吗?


对方可能会先去充分理解我要问的究竟是什么,动用他的个人积累、真实阅读《红楼梦》的一些思考感受、以及综合网络上看到过的信息,来对这个问题进行回答,这个回答是有创造性的,而非对信息的选择与组合。


而ChatGPT这样的聊天机器人则是用海量的数据+经过训练的语言表达形成一个深度的模型,在模型参数的作用下生成的数据。本质上来说,它是概率最大化而不断生成的数据,而非人类头脑中逻辑推理的结果——这也就是它之所以频频出错的原因。


对此,OpenAI称他们还在不断完善这项技术,比如这次的100万人测评就是一个帮助ChatGPT去强化学习的过程。通过在测评页面设置“这些回答是否令你信服?”“回答是否准确”等用户评级系统,更加精准地定义ChatGPT会说什么、不会说什么。


对于早前已经出现的一些“错误回答”,OpenAI公司警告人们:ChatGPT偶尔会产生一些不正确的信息、产生有害的指导或是有偏见的信息,它还只是一个在研发中的项目。

真正危险的是……


尽管ChatGPT闹了不少“笑话”,但是它也让我们看到AI革命对人类生活、学习和知识传播的重大改变。这些改变,我们已经可以看到细节了:


我们用ChatGPT去替代Google、百度这样的搜索引擎;

用AI去替代初级的家庭教师,帮助孩子学习和完成作业;

进行基础的写作,比如新闻稿、活动通稿的撰写;

根据关键词创作AI绘画;

……


这也许意味着,随着AI技术更加完善,将有大量现有的人类工作被人工智能替代,失业即将到来。


但更可怕的是,当你去搜集资料、准备写一篇论文的时候,面对海量的数字信息,你如何判断它们是来自真实的、人类的研究,还是AI基于概率生成的一个“看似一本正经、实则满篇错误”的回答?


今天,仅仅还在测试阶段的ChatGPT“偶尔”出现的错误回答,被人们大量传播到网络上,当做“段子”和“乐子”来看待;等假以时日,技术真的成熟起来,我们将如何分辨网络上的信息真伪,如何对知识追本溯源呢?


专家警告称,这种基于网络真实数字文本形成的AI聊天机器人的技术,如今已经在市场上广泛复制和应用。无论是谷歌还是OpenAI都无法控制这项技术的发展走向,他们也无法阻止人们利用这些系统传播错误的信息。也许我们需要建立起一项对应的监管政策,来避免对AI技术的滥用。


互动留言:您对未来AI的发展怎么看?AI是否会威胁到人类?

推荐阅读

智能不是关于什么是可能的,而是关于什么是有用的和有价值的

参考文章:

https://www.nytimes.com/2022/12/10/technology/ai-chat-bot-chatgpt.html?searchResultPosition=4

https://www.nytimes.com/2022/12/05/technology/chatgpt-ai-twitter.html?searchResultPosition=1

如果喜欢我们的文章,欢迎点赞、分享、评论!

展开阅读全文

页面更新:2024-04-20

标签:中美洲   机器人   文本   危险   人类   错误   真实   全球   技术   信息   网络

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2008-2024 All Rights Reserved. Powered By bs178.com 闽ICP备11008920号-3
闽公网安备35020302034844号

Top