FT大视野

“你无法忘掉那些画面”:Facebook的内容审核员

肯尼亚的外包审核员们负责审查图像内容,让用户不必看到有毒的内容。现在他们正在起诉Meta,要求更公平的协议。

据特雷文•布朗尼自己估计,他目睹了超过1000人被斩首。

他说,在他的工作中,他必须大约每55秒观看一个新的Facebook视频,对最有害的和图像内容进行删除和分类。开工第一天,他回忆说,在看了一名男子在他三岁的孩子面前自杀的视频后,他恶心地呕吐。

从那以后,情况变得更糟了。“你会看到儿童色情、兽交、恋尸癖、伤害人类、伤害动物、强奸,”他声音颤抖着说。“作为Facebook用户,你不会看到这些。作为审核人员,我的工作就是确保你看不到这些。”

他说,过了一段时间,无休止的恐惧开始以意想不到的方式影响这位审核员。“在你看了100次斩首之后,你会到达一个点,你会开始希望下一次斩首变得更加可怕。这是一种上瘾。”

布朗尼是数百名年轻人中的一员,他们大多是20多岁,被旧金山外包公司Sama招募到其内罗毕中心,负责Facebook内容的审核工作。

作为一名南非人,他现在是184名请愿者中的一员,他们正在起诉Sama和Facebook的所有者Meta侵犯人权和非法终止合同。

这是全球同类案件中最大的案件之一,也是Meta在肯尼亚被诉的三起案件之一。律师们表示,这三起案件可能会对由数万名审核员组成的一支隐蔽大军的就业条件有潜在的全球影响,这些审核员被雇来过滤世界上社交媒体网络中最有毒的材料。

2020年,Facebook支付了5200万美元来解决一项诉讼,并为美国内容审核员提供心理健康治疗。爱尔兰的审核员提诉的其他案件也为所谓的创伤后应激障碍寻求赔偿。

但肯尼亚的案件是美国以外第一起寻求通过法庭程序改变Facebook内容审核员待遇的案件。如果这些案件成功了,它们可能会在Meta和其他社交媒体提供商通过第三方提供商筛选内容的地方导致更多的案件,这可能会改善数千名工人的条件,这些工人的工资相对较低,却暴露在最恶劣的人性中。

这些审核员的律师们表示,就像在工业时代在工厂里辛苦劳作或吸入煤尘毁掉了工人的身体一样,那些在社交媒体数字车间工作的人也面临着心智被毁的风险。

“这些都是这一代人劳工权利的前沿问题,”内罗毕大学(University of Nairobi)讲师尼马•穆特米(Neema Mutemi)表示,穆特米正在帮助宣传此案。当被要求对这些指控作出回应时,Meta表示不会对正在进行的诉讼发表评论。

网络危害

近年来,Meta面临越来越大的压力,要求其在包括Facebook、WhatsApp和Instagram在内的平台上缓和尖刻言论和错误信息。

在缅甸,它面临的指控是,其算法放大了仇恨言论,未能删除煽动对罗辛亚少数民族使用暴力的帖子。罗辛亚少数民族有数千人被杀,数十万人逃往孟加拉国。

您已阅读21%(1090字),剩余79%(4152字)包含更多重要信息,订阅以继续探索完整内容,并享受更多专属服务。
版权声明:本文版权归FT中文网所有,未经允许任何单位或个人不得转载,复制或以任何其他方式使用本文全部或部分,侵权必究。
设置字号×
最小
较小
默认
较大
最大
分享×