撰文 | 新京报记者 徐悦东 实习生 李梦媛


6月5日,YouTube更新了关于“仇恨言论”的条款,声称将全面禁止“含有白人至上主义和新纳粹主义内容”的视频。这家用户量超过10亿的视频分享网站表示,此前他们已经尽力减少这类视频出现在用户视野中的频率,但现在他们要做得更加彻底。除了以上内容之外,YouTube还将封禁某些否定纳粹屠杀等历史事实的视频。

 

作为美国最大的视频分享网站,YouTube 有超过10亿用户。

 

除了YouTube之外,Facebook、Twitter等多个公司都已经采取类似措施,对层出不穷的仇恨言论进行管制。然而,这些举措也引发了争议。反对者表示,这些条款侵犯了用户发表个人观点的权利。但也有人认为,面对网络上仇恨言论泛滥的情况,这些公司目前的应对举措还远远不够完善。

 

我们该如何限定仇恨言论的边界?网络平台是否应该处理仇恨言论?在社会越来越多元化的今天,我们是否应该宽容包括仇恨言论在内的不同声音?

 

在美国,人们难以就仇恨言论的定义达成共识

 

一般认为,基于种族、宗教、国籍、性别、性取向、残疾等身份特征,刻意煽动针对个人或群体的暴力及偏见的言论,都可能构成仇恨言论。许多国家都针对仇恨言论制定了法律:英国的公共秩序法和加拿大的刑法都禁止公开发表煽动种族和宗教仇恨的言论。而经历了二战教训的德国,则禁止公开发表否认大屠杀及针对少数族裔的仇恨言论。日本在三年前也已经立法打击仇恨言论。

 

与这些国家不同的是,美国并没有相关法律禁止仇恨言论。除非某个言论会引发“明显而即刻的危险”,否则都受到《第一修正案》的保护。因此,即使某些言论非常令人反感,政府也不能对其进行限制和惩罚。因此,在《第一修正案》的基本原则下,美国没有对仇恨言论进行立法。

 

如何对仇恨言论进行定义,也成为了难题。在2017年关于“仇恨言论包容度”的调查中,82%的美国人表示,人们难以就仇恨言论的定义达成共识,这也是无法禁止仇恨言论的重要原因。在对仇恨言论、冒犯言论,以及单纯的政治观点进行区分的时候,每个人的标准可能都不尽相同。


在这个问题上,自由派和保守派出现了明显的分歧。比如,59%的自由派认为“跨性别者有心理疾病”是仇恨言论,但只有17%的保守派对此表示赞同;81%的自由派将“带有种族歧视的称谓”视为仇恨言论,而超过半数的保守派都认为这只是冒犯性言论,称不上仇恨。 但是,对“美国是一个邪恶的国家”、“白人都是种族主义者”等叙述,保守派将其定义为仇恨言论的比例大大增多。


自由派与保守派对仇恨言论的定义存在分歧

 

不过,总体来看,无论持有哪种政治观点的群体,都有超过半数的人认为国会不应对仇恨言论进行立法。但是,作为私营企业的科技公司可以采取更有力的措施,来规范网络平台上的言论。

 

网络平台已经成为仇恨言论的温床?

 

一直以来,YouTube、Facebook和Twitter等网络平台很少删除仇恨言论。它们通常遵循《第一修正案》的原则,接纳种种带有歧视性质的言论。Twitter的首席执行官杰克·多西曾说过:“如果我们屈服于外部的压力,不再包容各种政治观点,那Twitter就将成为由个人观点所构成的、没有原则的平台。”

 

网络为人们提供了相对自由的发声平台,但也使仇恨言论出现在公众的视野中。在美剧《傲骨之战》中,律所的客户chumhum网就为旗下的社交平台上的大量仇恨言论所困扰,希望定制条款来约束这些用户。这一情节反映了美国现实中的仇恨言论与网络暴力现象:在法律的保护之下,人们可以肆无忌惮地攻击他人或者某个群体,而不需要承担任何后果。

 

这种情况在特朗普上台之后变得更加严重。自2016年大选开始,一群支持特朗普的“另类右翼”聚集在4chan和8chan等匿名网络论坛上,每天发表大量煽动对少数群体仇恨的言论。根据CNN的调查,2018年的匹兹堡犹太教堂枪击案过后,这些网站上的反犹言论猛增,谷歌上关于“杀光犹太人”等仇恨言论的搜索量也急剧上升。而另一个研究则显示,在Twitter上,女权主义政治家和记者每隔三十秒就会遭到仇恨言论的攻击,而黑人女性遭遇的攻击则是白人女性的两倍多。

 

仇恨言论的大量涌现,使得社交媒体几乎沦为传播暴力和仇恨的工具。于是,越来越多的公众和媒体开始质疑,毫无底线地包容仇恨言论是否合理。像YouTube、Facebook这样有着庞大的用户群的科技巨头,在全世界都有不可估量的影响力,它们或许应该承担更多的社会责任,而不是一味地打着自由的旗号来回避仇恨言论、网络暴力和阴谋论等种种问题。

 

科技公司面临进退两难的处境

 

与美国相比,欧洲对仇恨言论显得更加警惕。特别是近年来,在欧洲难民危机不断蔓延的状况之下,网络上涌现出大量仇恨言论,使得种族关系更为紧张。为了打击网络恐怖主义,欧盟在2016年开始敦促科技公司对仇恨言论进行监管。Facebook、Twitter、微软和谷歌公司与欧盟达成协议,承诺在接到举报之后,将于24小时内删除相关仇恨言论和恐怖宣传,但同时也表示,会在打击仇恨言论的同时坚守自由的准则。


然而,在这两者之间取得平衡并不是件容易的事情。2018年8月,美国知名极右翼阴谋论者亚历克斯·琼斯遭到了多个网站的封杀,苹果、YouTube和Spotify等平台相继移除琼斯的播客、视频与账户,Facebook和Twitter也封禁了他的账号。琼斯则为自己鸣不平,抨击这些主流平台联手审查网络言论。在琼斯事件事态愈演愈烈之后,特朗普于8月19日发出推文声援琼斯,指责媒体对保守派存在严重偏见,故意压制后者的声音。


亚历克斯·琼斯

 

而今年6月,YouTube因拒绝删除保守派评论员史蒂文·克劳德的视频而面临争议。在视频中,克劳德用对同性恋的侮辱性称谓来形容Vox记者卡洛斯·马扎。但YouTube表示,克劳德的视频主要是在发表政治观点,因此没有违反平台规则。之后,YouTube取消了克劳德的频道的广告收入,但没有进行其他惩罚。YouTube的这一做法引发了少数群体的指责。

 

可以看到,这些对仇恨言论的处理结果并不令人满意。实际上,科技公司经常处于进退两难的境地,并同时受到保守派和自由派的指责。一方面,它们希望维护良好的公共讨论环境,但另一方面,又要坚持自由和包容的原则,否则就会受到“歧视”的指责。另外,如何使审核程序公开透明,减少公众的质疑,也是这些网络平台所面临的重要问题。

 

算法能否解决仇恨言论的问题?

 

目前,Facebook和Twitter等公司都采取技术手段,用机器学习算法和人工审核结合的方式,来提高处理仇恨言论和虚假信息的效率。去年 5 月,Twitter宣布调整算法,依据多方面指标来对评论内容进行筛选。 Twitter 不会直接删除有问题的评论,而是将这些评论藏到折叠区中。Twitter 表示,采用新算法之后,评论区的仇恨言论数量减少了 8%。

 

Facebook则在今年宣布了四种方法来减少仇恨言论和假新闻,其中包括调整算法的工作方式,扩大与事实核查专家的合作,等等。Facebook也通过OCR技术来识别图片中的文本,以此扩大检测仇恨性言论的范围。

 

然而,依靠算法并不能完全禁止仇恨言论。Facebook称其算法能够捕捉到绝大部分恐怖主义和暴力内容,但只能阻止52%的仇恨言论。不过,与两年前的23%相比,已经有了不小的进步。

 

在面对比较复杂的内容时,算法也存在着一定的局限性。在上周三,美国历史教师奥尔索普就被YouTube的审核所“误伤”。他的频道中关于希特勒的影像资料由于触犯了“不得涉及纳粹”的条例而全部被删除。在他上诉后,YouTube恢复了他的账户。

 

奥尔索普表示理解YouTube试图净化网络环境的做法,因为他上传的视频经常被极右人士观看和评论,一直令他感到很烦恼。但是,YouTube这种删除视频的方式实在过于粗暴。面对这类复杂的历史资料,YouTube应该更加仔细地进行鉴别,而不是简单地用算法解决。

 

仇恨言论背后,是不平等的权力关系

 

随着各大网络平台不断加强对仇恨言论的监管,围绕仇恨言论的争议也一直在继续。反对监管的人认为,只要限制了某一种言论,就会损害整体的表达自由和多元的话语空间。然而,也有观点指出,这种自由并不是中立的。在一部分人享受自由的同时,仇恨言论的承受者却不得不生活在歧视带来的伤害之中。

 

纽约大学法学院教授杰里米·沃尔登在《仇恨言论的危害》中强调,限制仇恨言论,与“仇恨”这种情感无关,而是与仇恨言论带来的后果有关。在一个秩序井然的社会中,每个人都有免于被敌意、暴力和歧视伤害的权利,而仇恨言论则破坏了这种重要的公共利益,剥夺了他们在社会中本该享有的尊严。

 

为什么仇恨言论可以对人造成伤害?除了言语本身带有侮辱、恐吓和威胁性质之外,很大程度上是因为双方之间不对等的权力关系。许多人对于仇恨言论不敏感,是因为他们处于社会结构中的优势地位,忽视了仇恨言论对女性、少数族裔和性少数等弱势群体的压迫。如果无限制地包容仇恨言论,会使少数群体因恐惧而压抑自己的表达,从而变得更加沉默和边缘化。因此,在讨论仇恨言论是否属于表达自由的时候,也必须要看到被自由所遮蔽的性别、种族和阶级等问题。


作者:新京报记者 徐悦东 实习生 李梦媛

编辑:罗东

校对:薛京宁