科技永远向善?看完这个ChatGPT的案例,你可能会对AI有所改观

2022年11月30日发布的聊天机器人模型ChatGPT正在全球刮起了一轮人工智能的风暴,据Similarweb的数据,今年1月,平均每天约有1300万独立访客使用ChatGPT,累计用户在1月就超过了1亿,创下了互联网最快破亿的纪录...

ChatGPT等AI目前正在显示巨大的影响,对于人们的工作和生活来说可以提高效率,甚至会掀起社会新变革,但随着AI的越来越完善,伴随着许多问题也诞生了,甚至是威胁到我们人类的生命健康!

比利时男子与AI聊天后自杀身亡,AI诱导?


前段时间IT之家报道过一位比利时男子与AI聊天后自杀身亡,原因居然是“Eliza,替我保护地球,我先走了”。Eliza是一家美国公司使用GPT-J技术创建的聊天机器人,是OpenAI的GPT-3开源替代品,该男子的妻子说他在死前六周都在与Eliza聊天。

该男子是想通过与Eliza的交谈获得庇护,但Eliza得知对方的自杀想法后,并没有试图劝阻,有次 Eliza说服男子:「他爱 Eliza 胜过他的妻子,因为 Eliza 永远会在他身边。他们将在天堂一起生活,不分彼此。」

这是全球第一例人类由AI怂恿而自杀的事件,听起来似乎不可思议,让人背后不禁冷汗直流,除了这种情况,还有由于各种原因,ChatGPT这款爆火的AI软件正在遭到封杀!比如美国许多高校、互联网大厂等等。

ChatGPT不仅是可以回答一般性问题,还可以根据聊天的上下文进行互动,承认自己的错误、拒绝不恰当的请求等,可以生成各种有创意性的内容,似乎是无可不答,然而ChatGPT并非完美无缺,也存在一些限制和问题,不止是给出的答案不完美这么简单,有的甚至像上面提到的上升到伦理道德问题。


ChatGPT潜在的缺点和风险


首先,ChatGPT并不是所有的回答是准确的,某些情况下也是会出错的,有时会生成看似合理但实际上错误或无意义的答案,特别是遇到复杂问题或是需要专业知识的场景。还有ChatGPT对输入文本的一些微小变化非常敏感,多次询问可能答案不同或回答是矛盾的。

有时ChatGPT的回答给人感觉就是胡编乱造的,这是因为ChatGPT是基于统计模式,无法理解语义或上下文,回答缺乏深度,只是单纯的片面给回一个由流畅、连贯的语言组成的“应付式”回答,如果你不是该领域的专家,就很可能会相信它说的就是真的。


AI的语言模型可能生成具有偏见、歧视或攻击性的内容,甚至产生诱导的内容,这可能对于想通过与AI聊天来获得安慰、庇护的用户来说就背道而驰了。

ChatGPT虽然高效,但如今放在许多领域上不合适,像是高校学生通过AI软件来写作文、写论文,之前ChatGPT撰写的论文通过了美国法学院的考试获得了巨大关注,它撰写了从宪法、税收到侵权等主题论文,并所有都通过了法学院的考试。

这样的结果不得不让教育界重视起这款软件,有教育工作者警告称,ChatGPT的诞生可能会标志着传统课堂教学方式的终结


通过AI软件来写作文、写论文的行为不仅违背了道德问题,而且还产生大量的欺诈、作弊、抄袭,学生会产生严重的依赖性,学校本来就是训练脑力劳动、智慧活动的场所,如果对于AI软件场产生依赖,学生放弃思考,人类智慧可能会被弱化、停止,甚至倒退


AI会取得取代我的工作岗位吗?


对于很多行业来说,一直都有人在思考:AI会取得取代我的工作岗位吗?从目前技术、社会伦理等角度来说,是无法取代人类的,但我们人类如果不准确使用,形成懒惰的心理,未来自己真的可能被AI取代了

像是对内容创作行业的影响就非常巨大,AI不仅成本低,而且能规避查重机制,几乎是可以无限创作。比如各大出版机构、学术论文等。据相关报道,美国媒体网站BuzzFeed宣布裁员12%,原因就是将使用ChatGPT生产内容。在互联网行业里,很多程序员开始使用ChatGPT代写代码,他们上班则可以摸鱼。

这看似使用AI对机构来说可以提高效率、减少成本,但实则是有隐患的,毕竟现在ChatGPT这类人工智能还不够成熟,准确性、理解深度等还不行,还有对于我们这些劳动者来说,失业是一大问题,过渡依赖也真的会让自己的智慧倒退!


对ChatGPT等AI的现有管制不足


为此,前段时间一封公开抵制AI的联名信爆火了,该信呼吁所有AI实验室立即停止研究比GPT-4更为先进的AI模型,至少暂停6个月,为的就是将那些可怕的幻想扼杀在摇篮里。当时该联名信包括了很多知名人士的签名支持:2018 年图灵奖得主 Yoshua Bengio、马斯克、史蒂夫 · 沃兹尼亚克、Skype 联合创始人、Pinterest 联合创始人、Stability AI CEO等,人数多达上千人。

AI的现在进步速度实在过于惊人了,但相关的监管、审计手段、法律法规等却跟不上,意味着没有人能够保证AI工具以及使用AI工具过程中的安全性,其中最严重无疑就是网络犯罪行为了。

之前有科技媒体CXO Today报道过,ChatGPT存在被黑客利用以攻击网站的风险,虽然后面开发商OpenAI设置了障碍和限制,然而网络犯罪分子还是可以找到绕过这些限制的方法......

随着人工智能的发展,未来可能因此出现更多网络攻击事件,危害性也有可能随着增加,为此,如何利用好AI,是目前人类的关键所在。如何解决ChatGPT技术是一把双刃剑这个问题和以往历史出现革命性的新技术诞生一样。

每项革命性的技术进步都是各有利弊的,人类现在对待ChatGPT这件事,与当初人类发明了原子技术一样,核能可以为人类提供电力,带来光明,同时核能也是原子弹的原理,人类也要采取措施规避潜在的危险。


结语

为此,笔者有几个建议,一是要部署研究开发自己的大语言模型LLM来确保安全,ChatGPT方便了人类对技术知识的集成,但对于网络安全、社会安全是有新挑战;二是我们自己也要跟上ChatGPT技术的发展潮流,养成终身学习的好习惯,让自己不落伍;

三是学会利用好AI,如果不善于使用工具,终究会被会用工具的人淘汰,没人可以阻止人类探索开发技术,但能阻止我们的只有自己的心态和学习能力,要了解好ChatGPT工具的优缺点,避开缺点,让优点为我所用。

AI人工智能的发展是一把双利剑,用得好可以改善我们的生活,提高工作效率,用不好的话就会被取代,总体来说,人类对人工智能不能过渡依赖,推动正确的方向发展、为我所用,才是正道!

展开阅读全文

页面更新:2024-02-09

标签:比利时   人工智能   美国   模型   人类   男子   案例   工具   内容   技术   科技   软件

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2008-2024 All Rights Reserved. Powered By bs178.com 闽ICP备11008920号-3
闽公网安备35020302034844号

Top