37岁前女雇员揭露Facebook滔天罪行:用放大仇恨言论算法赚钱

来源:cbs 编辑:yaxin

【新智元导读】周日,前女雇员Frances Haugen在美国60 Minutes采访上揭露Facebook用放大仇恨言论的算法谋利。为了提高用户参与度,Facebook发现最好的方式便是向用户灌输恐惧和憎恨。


Facebook 数万页内部文件一夜之间尽数曝光!

告密者揭露了 Facebook 一直以来不肯承认的罪行——用「放大仇恨言论的算法」谋取利益

这只披着羊皮的狼终现原形。

37岁前女雇员揭露Facebook滔天罪行:用放大仇恨言论算法赚钱

周日,告密者在美国 60 Minutes 节目上揭露了这个世界上最强大的社交媒体平台 Facebook 更多的内部运作机制。

与此同时,这位告密者也公布了自己的身份 —— Facebook前雇员Frances Haugen,并与《华尔街日报》分享了大量内部文件。

37岁前女雇员揭露Facebook滔天罪行:用放大仇恨言论算法赚钱

她表示,一家致力于产品优化的公司,却采用了放大仇恨言论的算法。


大量性爆炸指控都有哪些?


Facebook算法黑箱:抓住人性的弱点

此前一项数据显示,Facebook 在致力于反对仇恨言论所做的努力。

现在看来更像是一场笑话

37岁前女雇员揭露Facebook滔天罪行:用放大仇恨言论算法赚钱

虽然该公司一再声称,至少在自己的产品上,它正在帮助阻止仇恨言论,但Haugen泄露的一份 Facebook内部文件表明:

「我们预计,我们的优化可能只会对Facebook上3%-5%的仇恨言论、大约0.6%的暴力和煽动内容产生作用,尽管在这一点上我们已经做到世界上做好了。」


,时长03:39


另一份文件甚至更加直白:我们从各种渠道获得的证据表明,仇恨言论、分裂性政治言论以及 Facebook 和旗下其他应用程序的错误信息正在影响世界各地的社会。

Haugen声称问题的根源在于「2018年推出的算法控制了你在平台上看到的东西」。

37岁前女雇员揭露Facebook滔天罪行:用放大仇恨言论算法赚钱

你用手机滑动五分钟,可能只能看到100条内容。但是 Facebook 可以向你展示成千上万种选择。

该算法根据你过去接触最多的内容类型来推送信息,通过参与度优化内容。

她表示,Facebook为了提高用户的参与度,发现最好的参与方式便是向用户灌输恐惧和憎恨

因为激发人们的愤怒比激发其他情绪更容易。


1.6国会暴乱,Ins青少年自杀倾向,还有什么?


当时,扎克伯格称算法的改变是正面的。

「我们觉得有责任确保我们的服务不仅仅是有趣的,而且有益于人们的福祉。」

37岁前女雇员揭露Facebook滔天罪行:用放大仇恨言论算法赚钱

对社会负面影响案例不是没有,2018年缅甸军方利用 Facebook 发动种族灭绝,包括种族暴力。

还有2020年大选,Facebook 明白其潜在的危险,因此启动了安全系统,以减少错误信息。

37岁前女雇员揭露Facebook滔天罪行:用放大仇恨言论算法赚钱

但Haugen表示,许多变化都是暂时的, 选举一结束,他们就把安全系统关闭了

但是,在选举之后,Facebook 被一些人用来组织1月6日的起义,即2021年美国国会大厦遭冲击事件

检察官引用 Facebook 上的帖子作为证据——武装游击队员的照片和文字,包括「通过子弹或选票恢复共和国即将到来!」这样的信息。

这些极端分子使用了很多平台,但 Facebook 反复出现。

37岁前女雇员揭露Facebook滔天罪行:用放大仇恨言论算法赚钱

「当你消费更多内容时,Facebook 会赚更多的钱。」

Facebook编写算法的方式正在改变欧洲主要政党领导国家的方式。

Haugen获得的这份2019年的内部报告称,对算法的改变迫使他们在 Facebook上的沟通中产生负面影响,导致他们采取更加极端的政策立场。

除了Facebook,其危害也带到了 Instagram 上

一项研究表明,13.5% 的青少年说 Instagram 让自杀的想法更糟糕; 17% 的青少年说 Instagram 让饮食失调更糟糕。

就在上周,Facebook 表示,它将推迟为更小的孩子创建 Instagram 的计划。

37岁前女雇员揭露Facebook滔天罪行:用放大仇恨言论算法赚钱


告密者是谁

「我在 Facebook 一次又一次地看到,对公众有利和对 Facebook 有利之间存在利益冲突。而 Facebook一次又一次地选择优化自己的利益,赚更多的钱。」

37岁前女雇员揭露Facebook滔天罪行:用放大仇恨言论算法赚钱

自上个月一位匿名的前雇员向联邦执法部门投诉以来,Facebook 一直急于知道告密者是谁。

此前投诉称,有证据表明,Facebook在反对仇恨、暴力和错误信息方面的问题上对公众撒了谎,但该公司一直隐瞒了它所知道的一切。

Frances Haugen今年37岁,是来自爱荷华州的数据科学家,拥有计算机工程学位和哈佛商学硕士学位。

根据一份已被删除的 LinkedIn 个人资料,Haugen 曾是 Facebook 的产品经理,被分配到 Civic Integretity 小组工作

37岁前女雇员揭露Facebook滔天罪行:用放大仇恨言论算法赚钱

她在5月份辞职时偷偷拿走了一批 Facebook 研究资料,并向美国证券交易委员会泄露了一份内部研究报告,希望借此改善对该公司的监管。

她指出,自己曾在许多公司工作过,包括谷歌和 Pinterest,但在 Facebook,情况要糟糕得多,因为该公司希望将利益置于用户福祉之上。



参考资料:

https://www.theverge.com/2021/10/3/22707860/facebook-whistleblower-leaked-documents-files-regulation

https://www.cbsnews.com/news/facebook-whistleblower-misinformation-public-60-minutes-2021-10-03/

https://edition.cnn.com/2021/10/03/tech/facebook-whistleblower-60-minutes/index.html

展开阅读全文

页面更新:2024-03-06

标签:雇员   算法   告密者   言论   滔天罪行   福祉   方式   文件   更多   内容   用户

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2008-2024 All Rights Reserved. Powered By bs178.com 闽ICP备11008920号-3
闽公网安备35020302034844号

Top