《纽约时报》今日发表文章,曝光了Facebook监管平台上言论的方式。Facebook在全球范围内有7500多名人工管理员,他们利用1400多页的规则手册,判断平台上的仇恨言论和假消息。
但《纽约时报》指出,规则手册上基本是幻灯片内容,不够系统,并且还含有过时的或是不准确的信息。加之管理员每天审查上千条帖子,需要迅速做出判断,因此错误地“封杀”或是“放行”时有发生。
以下为文章全文:
在加州总部的一间玻璃会议室里,Facebook正在处理一个又一个帖子,该公司需要解决遍及全球范围的仇恨言论和假消息问题。此前因为破坏民主,并在各种社会中挑起流血事件,Facebook备受批评。
但对Facebook来说,这也是个商业问题。
Facebook每季度盈利约为50亿美元。该公司必须证明,自己正在严肃对待危险内容,与此同时还必须吸引更多来自各个国家的用户,努力延长他们使用Facebook网站的时间。
那么,Facebook要如何才能在不影响核心业务发展的情况下,每天监控100多种语言的数十亿条帖子呢?该公司的解决方案是:一个员工体系通过复杂的PPT幻灯片,来判断哪些言论是被禁止的。
在每两周一次的周二上午,Facebook的数十名员工都会聚在一起吃早餐,讨论网站上的20亿用户可以说些什么。这些会议提出的指导方针被发送给全球各地的7500多名管理员。
《纽约时报》发现,这些规则非常广泛,也使得Facebook成为全球言论的仲裁者。这比该公司公开承认的权力要大得多。
《纽约时报》从Facebook一名员工处获得了来自规则手册的1400多页内容。这名员工表示,他担心公司的权力太大,受到的监督太少,并且犯了太多的错误。
而这些材料中存在许多漏洞、偏见和明显的错误。在Facebook员工寻找正确答案的同时,这些规则也允许极端主义言论出现在一些国家,并在另一些国家审查主流言论。
例如,管理员们曾被要求删除为印尼火山受灾者募捐的倡议,因为这项活动的一名共同赞助者登上了Facebook被封禁团体的内部名单。在缅甸,文件错误导致一个被控煽动种族灭绝的极端主义组织在平台上存在了几个月时间。在印度,管理员们被错误地告知,应当删除批评宗教的评论。
Facebook的员工主要是年轻的工程师和律师,他们在会议上制定指导方针,尝试将复杂的问题提炼成为简单的“是”与“否”规则。随后,Facebook将大部分的帖子审核外包给外部公司,而这些公司招收的主要是非熟练工,其中许多人来自于呼叫中心。
这些管理员有时需要依靠谷歌翻译,而他们只有几秒钟的时间去回忆大量规则,并将规则应用于屏幕上数以百计的帖子。例如,在什么情况下,“圣战”(jihad)一词是被禁止的?在什么情况下,emoji表情符“哭笑”(crying laughter)是警示信号?
管理员们表达了对这些规则的失望。他们认为,这些规则并不总是有意义,有时只能留下在他们看来可能煽动暴力的帖子。一名不愿透露姓名的管理员表示:“由于没有采取措施,因此你的感觉就像是杀了人。”
Facebook高管们则表示,该公司正在尽力清除平台上的危险内容。
Facebook消息流高级工程师莎拉·苏(Sara Su)表示,“这不是我们纠正人们言论的地方,但我们确实希望在平台上强制执行社区标准。当你处在我们的社区中时,我们希望确保在言论自由和安全之间取得平衡。”
Facebook全球政策管理负责人莫妮卡·比科特(Monica Bickert)表示,公司的主要目的是防止给用户造成伤害,并在很大程度上取得了成功。但她也指出,完美是不可能的。
比科特说:“我们每天都有数十亿条帖子,我们正在利用技术系统发现越来越多的潜在违规行为。在这样的规模下,即使准确率达到99%,也依然会犯许多错误。”
不系统的规则
Facebook指导方针看起来并不像是全球性政治监管手册。它们由几十份看起来无关的PPT和Excel文件组成,标题包括“西巴尔干人讨厌组织和数字”和“可信的暴力:实施标准”。
什么时候可以使用恐怖主义的说法?“烈士”(martyr)是否是禁用单词?这些指导方针帮助管理员做出判断。
由于在某种程度上,Facebook的方法是偶然得出的,因此并不存在单一的文件或整体性的指南,这些规则来自该公司的多个不同部门。Facebook证实了这些文件的真实性,但表示其中一些文件已经不是最新版。
Facebook的目标是,将法律专家都很难解决的严重问题归纳成为一刀切的规则,例如什么是仇恨思想,什么是危险的谣言。Facebook希望管理员遵从简单的规则,防止偏见,并加强一致性。
Facebook表示,这些文件仅仅用于培训,但管理员们则表示,这些文件也是他们的日常参考资料。
单独来看,每条规则都是合理的,但合并到一起,这些规则可能令人有些困惑。
一份文件列出了几条规则,用于确定类似“烈士”和“圣战”这样的单词在什么情况下属于恐怖主义言论。另一个文件则描述了,什么时候应该禁止讨论某个违禁的组织。类似“兄弟”(brother)和“同志”(comrade)这样的词可能是违规的,一些表情符号也是如此。
Facebook不希望一线管理员做出独立判断,因此给予他们广泛的指导。Facebook表示,表情符号在某些情况下可能被视为危险的,在某些种族或宗教团体的背景下则可能被视为仇恨言论。
关于识别仇恨言论的指导方针长达200页。管理者必须将一篇帖子分成3个严重程度的“等级”。他们还必须记住一系列清单,包括6种“非人道类比”,例如将犹太人比作老鼠。
Facebook高管比科特表示:“这里存在真正的矛盾,一方面是想通过细微差别来解释每种情况,另一方面是想拿出一套可以准确执行的政策,并给予清晰地解释。”
尽管相关Facebook员工基本上可以自由地制定规则,并且常常独力做出决定,但他们也会与外部协商。比科特说:“我们并不是在与世隔绝的情况下划出这些界线的。”
影响各国舆论生态
指导方针非常详细,不过它同时也在采取“逼近”路线——竭尽全力猜想抵制极端主义或错误信息的方式。而这些指导方针却会让Facebook贸然介入到全球一些敏感性政治事件中。
渐渐地,Facebook封禁帖子的决定就相当于是在控制政治言论——且不仅仅只是在一些边缘问题上。在许多国家,极端主义以及主流的界限已经模糊不清了。
在美国,Facebook封禁了与 “骄傲男孩”(Proud Boys)相关的页面,这是一个拥护特朗普的极右翼组织。公司还封禁了一则煽动性广告,特朗普政治团队利用此广告来宣扬反对中美洲移民大军进入美国的内容。
六月,《纽约时报》查阅到了一些公司内部邮件。其中,版主曾被告知,如果用户提到停火决定,那么可以允许其发布赞扬塔利班的言论——通常这种言论是被封禁的。在另一封邮件中,Facebook要求版主删除错误指控一位以色列士兵杀害巴基斯坦医生的谣言。
“Facebook逐渐处于霸主和垄断地位,它已经变得独断专行。”研究巴尔干地区问题的专家Jasmin Mujanovic说道,“所有实体都不应当拥有这种影响公众言论和政策的权力,特别是像Facebook这样的盈利性质企业。”
在七月巴基斯坦举办大选不久之前,Facebook向版主发送了一份长达40页的文件,其中罗列了关于“政党、预期趋势以及指导方针”等内容。
Facebook要求巴基斯坦的版主观察一些政党以及支持者是否发布了被禁言论。
巴基斯坦是全球最大、也是最为脆弱的民主国家之一。大选期间,巴基斯坦选择封禁媒体。这就使得Facebook在选举期间成为了大家热议的焦点。
很有可能指导方针就是导致这些议论的源头——即便巴基斯坦人自己尚未意识到这一点。比方说,Facebook要求版主额外审查强硬派宗教政党“贤哲会”(Jamiat Ulema-E-Islam)发布的内容。而另外一个宗教党派则被描述为是“和善的”。
尽管Facebook称自己的关注焦点是要保护用户,但这些文件也引来了其他问题。巴基斯坦的指导方针告诫版主,警惕任何“可能会对Facebook名声造成负面影响或招致法律风险”的行为。
在印度,法律学者Chinmayi Arun发现Facebook的指导方针中存在一些错误。
其中一张幻灯片告知版主,任何贬低宗教的帖子都违反了印度法律,需要被标记为删除。这在极大程度上抑制了言论——显然这也是不正确的说辞。印度法律仅仅是在某些情况下禁止亵渎神灵,比如说当言论者试图激起暴力时。
还有一张幻灯片上的内容显示,印度法律禁止出现有关克什米尔独立的言论,而一些法律学者则表示事实情况并非如此。幻灯片要求版主关注“克什米尔自由”等措辞,但是积极分子的一些标语中出现这一措辞完全合法。
Facebook表示,自己只是在敦促版主额外注意使用这一说辞的帖子。不过,这依然会给克什米尔相关言论蒙上了一层阴影。显然,对于版主来说,区分的界限并不清晰。Facebook警告版主,忽视这些情况可能会导致Facebook在印度被封禁。
时常出现错误
因为政府和国际机构并没有制定明确标准,Facebook只好自己尝试设定一套标准。
本来Facebook无意扮演这样的角色,不过为了控制自己滋生的问题,Facebook悄悄变成了世界上最强势的政治监管者。
反恐专家布莱恩·菲什曼(Brian Fishman)与Facebook共事,他说:“如果有权威的第三方知道答案,事情就会简单很多。有时事情像爆炸,传播速度很快,我们必须快速找到响应对策,没有时间等待联合国。”
结果有好有坏。
巴尔干地区因为民族主义抬头,暴力有复燃迹象;Facebook为该地区提供指南,不过自2016年之后指南就没有更新过,里面有一些古怪的错误。比如拉特科·姆拉迪奇(Ratko Mladic)是一名波斯尼亚战犯,受到极端主义者推崇,文件说他在逃。实际上,姆拉迪奇2011年就被捕了。
幻灯片的作者是一些说英语的人,他们依赖谷歌翻译编写文档,也就是说Facebook缺少精通本地语言的版主,只有熟悉本地语言才能理解当地环境,正确识别煽动性言论。有时谷歌翻译并不可靠。
巴尔干问题专家雅斯曼·穆亚诺维奇(Jasmin Mujanovic)认为,Facebook的指南过时了,而且很严重。对于极端民族主义团体煽动政治暴力的问题,指南一笔带过。
接受《纽约时报》采访的Facebook员工几乎都谈到一件事,也就是联合国指责Facebook在缅甸种族灭绝危机中助推仇恨言论传播。员工们说,Facebook颁布禁令,禁令任何粉饰Ma Ba Tha的内容,Ma Ba Tha是一个极端组织,自2014年以来,Ma Ba Tha利用Facebook散布言论,呼吁各方用暴力对抗穆斯林。
感到困惑的缅甸活动人士指出,禁令颁布几个月后,平台上仍然充斥着支持Ma Ba Tha的言论。
出现这种问题,可能要归因于Facebook指南。指南中的确谈到了缅甸政治仇恨言论的问题,不过指南要求版主不要删除支持Ma Ba Tha的言论。《纽约时报》就此质询Facebook,它才修正错误。
员工们还说,他们做出决定,关闭缅甸高级军官的Facebook帐号。
不过Facebook最开始时并没有将关闭消息通知缅甸政府,一些被封杀的官员认为自己被黑客入侵了。有些人指责昂山素季(Daw Aung San Suu Kyi),她是缅甸的平民领袖,这一事件加深了双方的不信任。
仇恨黑名单
许多重要的Facebook政治文档只是一份Excel表格,它将各个组织和个体的名字列出来,这些组织和个体被视为仇恨言论的涉及对象,被Facebook封杀。
Facebook对版主提出要求,对于黑名单上的组织或者个体,如果用户发表内容赞扬、支持他们,或者描述他们,都应该及时清除。
安东·舍克赫维特佐夫(Anton Shekhovtsov)是一名研究极右翼组织的专家,他对Facebook的方法感到困惑。在名单中有许多美国、英国组织,但是一些国家却很少,那里的右派更加暴力,比如俄罗斯、乌克兰。
在有些国家,Facebook受到的政府压力大一些,覆盖也就更全面,如果压力不大,覆盖就会弱很多。Facebook封杀几十个德国右翼组织,德国当局对Facebook管控很严,但在奥地利却只封杀了一个。
哈佛大学在线极端主义专家乔纳斯·凯撒(Jonas Kaiser)认为,Facebook是一家科技公司,它制定这样的政策很有问题。凯撒认为:“政策将Facebook推到了一个新位置,它像裁判一样,而这种工作一般是交给法院完成的。”
萨那·贾弗里(Sana Jaffrey)在芝加哥大学研究印尼政治问题,贾弗里认为禁令有点像捷径。向版主下达命令,让他们查看被封杀的名字或者Logo,这样更容易一些,如果要让他们判断危险政治言论,那就难多了。
在亚洲和中东许多地区,Facebook还会封杀强硬宗教组织,它们在社会中有着举足轻重的地位。贾弗里认为,如果全面禁止,意味着Facebook关闭了国家辩论中一方的声音。
政府有权处罚Facebook,或者监管它,Facebook的决定许多时候都会讨好政府。
在斯里兰卡,一些泰米尔少数民族成员在内战中死亡,如果有言论纪念他们,会被Facebook删除。赞扬泰米尔叛军的言论不许出现在Facebook,但是Facebook允许用户赞扬政府军,他们同样要为暴行负责。
伦敦大学(University College London)斯里兰卡问题专家凯特·克罗宁-弗曼(Kate Cronin-Furman)认为,Facebook的做法无疑是在阻止泰米尔少数民族纪念战争,帮助政府给事件定性,巩固泰米尔民族的二等地位。
Facebook总部规则
Facebook的政策也许来自设备完善的会议室,但是政策要交给版主执行,他们在遥远的办公室办公,比如在摩洛哥、菲律宾,那里很简陋。
Facebook声称,自己会给版主足够的时间审查帖子,而且没有配额。但是版主却说他们承受很大压力,每天要审查一千条帖子。每条帖子只有8-10秒的审查时间,视频审查时间稍长。
版主们谈到了自己的感受。有些人说,付费与速度、精准度挂钩。许多人只做了短短几个月就无法坚持了。作为一线版主,没有太多办法提醒Facebook,让它注意新威胁,或者注意政策中的漏洞,即使做了也没有什么奖励。
一名版主谈到一条在办公室通行的规则:如果某条帖子的语言附近没有人能读懂,那就批准它。Facebook说这样做可能会违反公司政策。负责合同的Facebook副总裁贾斯廷·奥索夫斯基(Justin Osofsky)说,走捷径的行为可能是外部公司的中层管理人员搞出来的,他们独立于Facebook运行。
从中可以窥见更深的问题。Facebook请了许多外包公司,这些企业主要靠自己来管理自己,而Facebook的监管不到位,很难控制它们。Facebook依赖外围公司来扩张,所以它对外围公司的影响有限。
在清除煽动性言论时,Facebook自己也是一大障碍。Facebook依赖算法挑选内容,算法偏爱那些最能刺激人的内容,有时算法助推的内容恰好是公司想压制的。
Facebook可以调整算法,或者降低进入新市场的速度。不过Facebook一直在向员工灌输一种观念:我们的产品是一股有益力量。
有报告认为,Facebook使用率提高,暴力也会相应增加,是这样吗?莎拉·苏回答说:“我并不这样认为。”她还说:“当我们的覆盖面扩大,参与的人更多,风险的确会增加。但是人们表达新想法的机会也会增大,比风险增加的幅度更大。”
Facebook找到正确的解决方案了吗?对此问题,一些Facebook高管显得有些迟疑。
在伦敦工作的副总裁理查德·阿兰(Richard Allan)认为,通过合作、政府参与来设立标准,效果可能更好一些,即使我们不相信所有政府。
而布莱恩·菲什曼认为,Facebook应该将更多决策权交给版主,因为他们对当地文化或者政策可能有更好的理解。
在Facebook总部,一些最重要的问题还没有找到答案:是什么内容直接导致暴力?什么时候平台会加剧社会矛盾?
罗萨·伯奇(Rosa Birch)领导一个内部危机团队,她说自己与团队多年来一直在思考这个问题,也取得了一些进步,但是可能永远也无法找到确定答案。
因为无法完全理解平台的影响力,所以大多政策只是问题出现时给出的临时解决方案。员工们稍作调整,看看效果如何,然后再调整。
与此同时,Facebook还在扩大版图,接触更多用户,进入更多国家。
“讨论这个问题很困难的原因之一,是我们在这种言论监管的权力应该由谁掌管的问题上,缺少社会共识,”菲什曼说,“但什么是更好地替代方案?这也很难说清楚。”
_____________
请加入我们的Facebook、Twitter和G+,或者新浪微博获取最快资讯,我们的微信订阅号是:sgnypost