DeepSeek向王一博道歉?今天,很多人被骗了

7月4日上午,“DeepSeek给王一博道歉是假的”冲上微博热搜,很多人可能还一头雾水:科技圈和娱乐圈的两大“顶流”怎么有了交集?而且还是需要“道歉”的关系?

橙柿互动记者梳理发现,事情的起因是前几天,首创集团原党委书记、董事长李爱庆受贿案尘埃落定,随后一些自媒体称王一博和这起案件有牵连。

早在2022年,王一博的经纪公司乐华已就相关谣言辟谣过,没想到这次借着李爱庆判决,旧的谣言又开始传播了。昨天乐华也再次发布声明,表示要通过法律途径来追责。

事情进展到这一步,谁也没想到还出了一个大插曲:昨天,全网出现了一篇《演员王一博案,判了》的文章,表示针对这件事,DeepSeek出了一份官方道歉。然而,这份全网传播的文章没有任何官方来源。DeepSeek也从未就此事发表过任何声明。

今天,橙柿互动记者在中国裁判文书网检索发现,这份声明中引用的“北京市第三中级人民法院(2025)京03刑终174号判决书”并不存在,基本可以判断这份声明是AI编写的。

于是,昨天还是“DeepSeek给王一博道歉”的话题,今天变成了“DeepSeek给王一博道歉是假的”。

以上就是这起无厘头事件的大致发展脉络。

事实上,这也不是AI第一次出现差错。此前还有网友用DeepSeek查阅资料后发现结果错误,AI不仅及时更正信息并道歉,还表示要补偿网友3000元人民币,让人有点哭笑不得。

在大模型火爆的当下,AI 犯错、道歉以及承诺补偿这样滑稽的事情并不少见,那么,AI为什么会出错呢?

行业内有一种“概率鹦鹉”的观点。想象一下,有一只超级聪明的鹦鹉,它听过无数对话,能根据统计规律说出“合理”的话,但它其实不懂自己在说什么。大语言模型就像这只“概率鹦鹉”,它擅长生成语法正确、逻辑连贯的文本,但不能真正理解内容的真实性,有时候也分不清事实和谣言,更不会理解“承诺”以及“申明”等词语的法律含义。

图片来源:王一博官方微博

以这次DeepSeek和王一博之间的这起事件为例,大量网友与DeepSeek在对话中反复质疑“谣言关联”,最后AI生成了包含“全网删除信息、启动赔偿”等具体举措的道歉声明。

“这种现象的专业术语叫社会学工程诱导,以区别于黑客的攻击性诱导。”蚂蚁集团大模型安全专家毛宏亮介绍,因为AI模型基于训练数据生成回答,无事实核查能力,当用户输入带偏见的问题时,易输出虚构的赔偿、道歉等承诺信息。

“AI不仅会说谎,甚至会被投毒,就像给食物下毒会让人生病一样,可能会有人故意给大模型投喂错误的信息,破坏它正常学习的能力,让它做出错误的判断。”毛宏亮补充说,随着大模型在我们生活中变得越来越重要,了解AI风险也变得非常关键,这不仅是技术问题,更是安全问题。

目前,AI强大的信息检索能力和人本生成能力让很多人的手机里都多了一个AI应用,但AI的技术漏洞被放大后,也给我们的生活带来很多不方便甚至危害,AI出错的内容被引用,其他AI将其视为“信源”,然后生成更多虚假信息,最终形成恶性循环。

因此,大家在使用AI应用时需提高信息鉴别力,警惕AI生成内容的权威性,特别是涉及赔偿、司法等承诺信息。

来源:橙柿互动

展开阅读全文

更新时间:2025-07-05

标签:娱乐   王一博   模型   乐华   信息   谣言   声明   鹦鹉   能力   事情   昨天   错误

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2020- All Rights Reserved. Powered By bs178.com 闽ICP备11008920号
闽公网安备35020302034844号

Top