首页 > 资讯 > 综合 > 正文
2021-10-26 08:58

Facebook是如何让世界失望的

Photo-illustration of a king  giving the Facebook thumbs-down

2019年秋,脸书发起了一项大规模行动,打击利用其平台进行人口贩运。该公司的员工夜以继日地工作,在Facebook及其子公司Instagram上搜索宣扬中东和其他地区家庭奴役的关键词和标签。在几周的时间里,该公司删除了129,191条内容,禁用了1000多个账户,收紧了政策,并增加了检测此类行为的新方法。工作结束后,员工们互相祝贺工作的出色完成。

这工作做得很好。只是来得有点晚。事实上,一组关注中东和北非的脸书研究人员发现,早在2018年3月,就有大量Instagram个人资料被用作被拐卖家政人员的广告。“印尼游客签证带来,”一名妇女的照片上用阿拉伯语写道。“我们有更多这样的人。”但这些个人资料并没有被“采取行动”——关闭或删除——一份内部报告可以解释,因为Facebook的政策“没有承认违规”。一年半后,英国广播公司(BBC)的一项秘密调查揭示了问题的全部范围:一个庞大的网络,在互联网平台的帮助下,在算法增强的话题标签的帮助下,非法贩运家政工人。作为回应,Facebook禁止了一个标签,并删除了约700名Instagram用户。但根据另一份内部报告,“家政服务内容仍留在平台上。”

直到2019年10月23日,这一锤子才敲响:因为BBC的报道,苹果威胁要将脸书和Instagram从其应用商店中撤下。员工在一份内部文件中称,苹果应用商店的禁令“可能会对公司业务造成严重影响”,在这种情况下,Facebook最终开始了高速运转。该文件明确表示,采取行动的决定不是新信息的结果:“在BBC调查和苹果升级之前,Facebook就知道这个问题了吗?是的。”

这份文件是向美国证券交易委员会(Securities and Exchange Commission)披露的信息的一部分,并由举报人、前Facebook数据科学家弗朗西斯•豪根(Frances Haugen)以编辑过的形式提交给了国会。包括《大西洋月刊》(The Atlantic)在内的十多家新闻机构组成的一个财团已经审查了修订后的版本。

阅读这些文件有点像去看眼科医生,看到世界突然变得清晰。在美国,Facebook助长了虚假信息、仇恨言论和政治两极分化的传播。它通过算法浮出了有关阴谋论和疫苗的虚假信息,并在一群极端暴徒试图在国会大厦发动暴力政变的过程中发挥了重要作用。这一切现在都是熟悉的,令人痛苦。

但这些文件表明,我们在美国拥有的Facebook实际上是最好的平台。它是由讲我们的语言、理解我们习俗的人创造的版本,他们认真对待我们的公民问题,因为这些问题也是他们的。这个版本存在于一个自由的互联网上,在一个相对稳定的政府下,在一个富裕的民主国家。这也是Facebook投入最多资源的版本。文件显示,在其他地方,情况就不同了。在世界上最脆弱的地方,互联网接入有限,用户数量少意味着坏人有不正当的影响力,Facebook所做的权衡和错误可能会造成致命的后果。

根据这些文件,Facebook知道其产品正在被用来促进中东的仇恨言论、墨西哥的暴力卡特尔、埃塞俄比亚的种族清洗、印度的极端反穆斯林言论,以及迪拜的性交易。它也意识到,它为对付这些问题所作的努力是不够的。2021年3月的一份报告指出,“我们经常观察到问题行动者高度协调、蓄意的活动”,这些活动“在风险国家和环境中尤其普遍和有问题”;该报告后来承认,“目前的缓解策略是不够的。”

在某些情况下,员工已经成功地采取了措施来解决这些问题,但在其他许多情况下,公司的反应是缓慢和不完整的。就在2020年底,Facebook的一份内部报告发现,Instagram上只有6%的阿拉伯语仇恨内容被Facebook的系统检测到。去年冬天流传的另一份报告发现,在阿富汗发布的30天内被归类为仇恨言论的材料中,只有0.23%被Facebook的工具自动删除。在这两种情况下,员工都指责公司领导层投资不足。

在世界上许多最脆弱的国家,一家价值数千亿美元的公司在语言和方言特定的人工智能和解决这些问题所需的人员配备方面投资不足。事实上,根据文件显示,去年Facebook负责纠正错误信息的工作人员中,只有13%的工作时间花在了非美国人身上。这些国家的人口占Facebook用户的90%以上。(Facebook拒绝告诉我它有多少个国家的用户。)尽管Facebook用户至少用160种语言发布信息,但该公司仅用其中的一小部分语言建立了强大的人工智能检测系统,即那些在美国和欧洲等大型知名市场上使用的语言。文件显示,这种选择意味着问题内容很少被检测到。

文件中记录的细微的、程序性的、有时是乏味的反复交流,以前所未有的细节揭示了这个地球上最强大的公司是如何做出决策的。他们还指出,在世界各地,Facebook的选择始终受到公众认知、商业风险、监管威胁以及“公关火灾”的影响。“公关火灾”这个词在文件中反复出现。在很多情况下,Facebook对美国和欧洲以外不断发展的危机反应迟缓,直到它被迫采取行动。“这是一个公开的秘密……Facebook的短期决定在很大程度上是由公关和潜在的负面关注推动的,”一名名叫索菲·张(Sophie Zhang)的员工在2020年9月的一份内部备忘录中写道,该备忘录涉及Facebook未能对全球虚假信息威胁采取行动。(在这些文件中,出于隐私考虑,大多数员工的名字都被编辑过,但张茵在写完这份备忘录后离开了公司,并成为了一名告密者。)

有时候,即使是负面的关注也不够。2019年,人权组织Avaaz发现,印度阿萨姆邦的孟加拉穆斯林在Facebook上“面临着极端的虐待和仇恨”:把穆斯林称为“猪”、“强奸犯”和“恐怖分子”的帖子被分享了数万次,并被留在了该平台上,因为Facebook的人工智能系统没有自动检测阿萨姆语的仇恨言论,阿萨姆语有2300万人使用。在Avaaz为Facebook标记的213个仇恨言论“最明显的例子”中,Facebook删除了96个。Facebook仍然没有技术来自动检测阿萨姆人的仇恨言论。

一名员工在2020年12月发布在Facebook非常类似于Facebook的内部留言板Workplace的一份备忘录中称,“Facebook的内容政策决策通常会受到政治考虑的影响。”听这位员工说,问题是结构性的:主要负责与政府就监管和国家安全进行谈判的员工,以及负责新闻报道的员工,被授权参与有关建立和执行Facebook在世界各地的可疑内容规定的对话。“一次又一次,”备忘录引用了一位Facebook研究人员的话说,“我看到有希望的干预……被关键决策者过早地扼杀或严重限制——往往是基于对公众和政策利益相关者反应的恐惧。”

备忘录显示,这种模式的后果包括:印度民族主义政客t·拉贾·辛格(T. Raja Singh)在Facebook上向数十万粉丝发帖,呼吁射杀印度罗兴亚穆斯林,这直接违反了Facebook的仇恨言论准则。尽管多次要求禁止他,但他被允许留在该平台上,包括负责监控仇恨言论的Facebook员工。《华尔街日报》(Wall Street Journal) 2020年的一篇文章报道称,Facebook在印度的最高公共政策主管担心,如果该公司这么做,可能会遭到反弹。他说,打击执政党领导人可能会让运营业务更加困难。该公司最终禁止了辛格,但这是在他的帖子在说印地语的世界引起轰动之后。

在Workplace的一个帖子中,一位领导解释说,Facebook的公共政策团队“在升级过程中非常重要,因为他们在一系列问题上提供意见,包括翻译、社会政治背景、以及不同执行方案带来的监管风险。”

员工没有安抚。在数十条评论中,他们质疑Facebook在涉及公司哪些部门参与内容审核方面所做的决定,并对其在印度缓和仇恨言论的能力提出了质疑。他们称这种情况“令人难过”,Facebook的回应“不充分”,并怀疑在涉及暴力言论时“考虑监管风险是否恰当”。

“我有一个非常基本的问题,”一名员工写道。“尽管针对仇恨言论有这么强大的程序,为什么会有那么多失败的例子?”它确实说明了这个过程的有效性。”

另外两名员工表示,他们亲自举报了某些发布仇恨言论的印度账户。即便如此,其中一名员工写道,“他们仍然在我们的平台上蓬勃发展,不断发布可恶的内容。”

还有人写道,“如果我们继续让这种野蛮行径在我们的网络上横行霸道,我们作为一家公司就不会感到骄傲。”

总的来说,弗朗西斯·豪根泄露的文件显示了Facebook的本质:一个饱受错误信息、虚假信息、阴谋思想、极端主义、仇恨言论、欺凌、虐待、人口贩卖、复仇色情和煽动暴力折磨的平台。它是一家自成立以来就一直追求全球增长的公司,然后,当监管机构、媒体和公众要求它平息其庞大规模造成的问题时,它声称,它的规模使得完全解决这些问题是不可能的。相反,Facebook的6万名全球员工正在参与一场无国界、无休无止、规模越来越大的“打地鼠”(wha -a- mole)游戏,没有赢家,也有很多人感到手臂酸痛。

苏菲·张(Sophie Zhang)就是玩这个游戏的人之一。尽管她只是一名初级数据科学家,但她在识别“协调虚假行为”方面有诀窍。“协调虚假行为”是Facebook对利用其平台破坏全球民主、欺骗用户、传播虚假信息的虚假账户的术语。在她的备忘录中,张详细描述了她在Facebook近三年的发现:在印度、巴西、墨西哥、阿富汗、韩国、玻利维亚、西班牙和乌克兰等几十个国家进行了有组织的虚假信息活动。这份备忘录被包括在Facebook的文件中,但此前被泄露给了BuzzFeed新闻。在某些情况下,例如在洪都拉斯和阿塞拜疆,张磊能够将参与这些活动的账户直接与执政党联系起来。在这份备忘录中,张欣表示,尽管她多次请求高层领导,但她在做这些账户的决定时,几乎没有得到监督或支持。这份备忘录是在张欣被Facebook解雇的当天发布在《职场》上的。她说,她曾多次被告知要优先处理其他工作。

Facebook并没有对章泽天关于她在公司工作期间的事实陈述提出异议,但它坚称,控制对其平台的滥用是重中之重。一位脸书发言人表示,该公司试图“确保人们的安全,即使这影响到我们的底线”,并补充说,自2016年以来,该公司已经在安全方面花费了130亿美元。“我们的记录显示,我们以与美国同样的力度打击国外的虐待行为。”

然而,张的备忘录描绘了一幅不同的画面。她写道:“我们关注的是美国和西欧等受伤害和优先地区。”但最终,“在阅读新闻和关注世界大事时,我不可能不感到自己的责任有多重。”事实上,文件显示,Facebook通过将某些国家划分为不同的层级,明确地优先考虑这些国家的干预。尽管有可信的证据表明,在2019年玻利维亚大选之前,有一些不真实的活动,但张“选择不优先考虑”玻利维亚。那次选举被舞弊指控破坏,引发了广泛的抗议;超过30人死亡,800多人受伤。

阅读:Facebook的id显示

“我的双手沾满了鲜血,”张在备忘录中写道。当她离开Facebook的时候,她晚上都睡不好觉。“我认为自己陷入了一个难以抉择的境地——既要忠于公司,又要忠于整个世界。”

今年2月,就在一年多后,Facebook的高调横扫中东和北非帮佣贩卖,一份内部报告确定了网络的类似活动,从菲律宾妇女被贩卖到波斯湾,在那里他们被关在他们的家中,拒绝支付,饥饿,虐待。这份报告发现,违反Facebook政策的内容“本应被检测到”,但事实并非如此,因为本可以检测到大部分内容的机制最近已被停用。这份备忘录的标题是《家政奴役:这不应该发生在facebook上,我们如何解决它》(Domestic奴役:This should not Happen on FB and How We Can Fix It)。

发生在菲律宾、洪都拉斯、阿塞拜疆、印度和玻利维亚的事情不仅仅是一家大公司对发布在其平台上的内容缺乏处理能力。问题在于,在很多情况下,一家非常大的公司知道发生了什么,却没有进行有意义的干预。

Facebook一再将为Facebook解决问题置于为用户解决问题之上,这不足为奇。该公司不断受到监管和负面新闻的威胁。Facebook在做公司该做的事,根据自己的利益分类和行事。

但Facebook不像其他公司。它更大,决策的利害关系也更大。在北美,我们最近已经敏锐地意识到社交媒体的风险和危害。但我们看到的Facebook是最好的平台。任何解决方案都需要不仅适用于我们仍然在这里遇到的问题,还需要适用于其他90%的Facebook用户每天都在努力解决的问题。