巢瑁
2019-05-22 10:03:22
2017年5月24日下午8点27分发布
2017年5月26日上午11:26更新

政策痛苦。 Facebook目前针对在线滥用和自杀等敏感问题的适度政策已引发争议。

政策痛苦。 Facebook目前针对在线滥用和自杀等敏感问题的适度政策已引发争议。



菲律宾马尼拉 - Facebook在其泄露的审核文件中处理的问题范围非常广泛,观察者们想知道,“社交网络是否能够自行决定这些问题?”

Facebook表示,他们聘请了专家来帮助他们制定适度的政策,但泄密所产生的不满情绪足以让人相信Facebook没有完全控制的东西。 (阅读: )

Facebook对几个问题的陈述引起了一些不满和不满。 例如,一篇文件建议主持人忽略嘲笑残疾人的图像 - 直到他们在最近几个月翻转它,“Facebook告诉卫报

这些声明告诉主持人忽略某些对某些部分很重要的事情,这些声明一直是那些阅读过泄密事件的人的震惊之源。 下面列出了泄漏的重要陈述,这些陈述向您展示了社交网络在暴力威胁,欺凌和自杀问题上的立场。

我们还在此处介绍了Facebook调节的一些一般事实,以便更好地了解该平台的审核流程。

1) 版主在收到报告的帖子时有3种选择:忽略,升级或删除

如果主持人无法决定忽略或删除报告的帖子,他们会将其上报给做出决定的更高级经理。

在某些情况下,可以将帖子升级为支持机构和慈善机构,Facebook的一个团队与之联络。 当谈到与自残或潜在自杀有关的帖子时,这一点尤为重要。卫报称,社交网络可以顺利地与适当的组织协调。 (阅读: )

2)版主使用“单一审核工具”

“卫报”透露,Facebook设计的工具是一个专门针对版主的特殊页面,其特色是“一系列选项可帮助他们将内容过滤成筒仓”。 它旨在加快审核流程。 该工具有所帮助,但主持人仍然被报告为被审查的内容量感到不知所措。

3)主持人还可以要求人们发表残忍的评论,以考虑降低评论

如果用户继续发布残酷评论,Facebook可以通过暂时关闭违规帐户来采取行动。

4)Facebook有一个执法响应团队

该团队负责与警方及其他相关机构和当局联系,要求Facebook提供帮助。

5)有时会更新审核手册

新版本的手册会定期发送给版主。 不需要立即更新手册的较小变更会传播给“主题专家”,然后告诉主持人调整。 主题专家有点像团队领导 - 他们监督主持人的工作并定期审查他们的表现。 (阅读: )

关于主持人的流动情况,目前还没有找到具体的数据,但“卫报 ”的一些消息来源表示,人员流动率很高,主持人在不同程度上患有焦虑症或创伤后应激障碍。

“许多内容令人心烦,”Facebook表示。 他们还表示,他们希望确保他们的主持人在精神上和情感上都很健康,并且有足够的信心做出审查决定。

6)Facebook不会删除嘲笑残疾人的评论或帖子 - 除非帖子附有照片并且报道了帖子。

Facebook允许对残疾人进行无照片嘲讽评论,以便其他人可以“与他们互动或挑战他们”。 使用不敏感的评论或笑话的匿名配置文件被强制在备注旁边发布其名称,否则Facebook将取消发布该页面。

文件显示,Facebook曾经让照片显示一个人因为患有严重疾病或能力而被嘲笑停留在平台上。 主持人被告知不要删除这些。 作为例子,Facebook展示了唐氏综合症患者在照片中被嘲笑的照片,Facebook称这些照片不必被删除。 该公司发言人告诉“卫报 ”,该政策已经“最近几个月”改变了。

7)在他们的任何社交媒体帐户中找到100,000名粉丝或粉丝的所有页面都被视为“公众人物”

公共和私人数据的审核规则各不相同。 一般来说,根据透露的文件,Facebook认为私人更容易受到欺凌。

Facebook还会考虑政治家,记者以及过去两年内出现在“五篇或更多新闻文章或媒体文章”标题或小标题中的人。

Facebook全球政策管理负责人莫妮卡比克特在向卫报讲话时解释了他们关于公众人物的政策:“我们允许围绕公众人物发表更强有力的演讲,但我们仍然删除有关公众人物的言论,这些人物越过仇恨言论,威胁或骚扰。 我们使用了许多标准来确定我们认为谁是公众人物。“

8)如果某些人“本身就是着名的或有争议的”,就会被排除在保护之外。

卫报列举了其中一些:耶稣,大屠杀者查尔斯曼森,奥萨马本拉登,强奸犯和家庭虐待者,1900年以前的任何政治和宗教领袖以及违反仇恨言论规则的人。

但是,在某些情况下,名人仍然可以受到保护。 这些文件引用了歌手蕾哈娜的说法,她称Facebook“可以因为她的歌声而受到嘲笑但不能成为家庭暴力的受害者”,因为考虑到她过去的经历,这可能被视为一个“残酷的话题”。

如果报道的帖子说“蕾哈娜,你为什么要再次与克里斯·布朗合作? 打败我,“它有一张Rihanna的照片随同帖子,然后Facebook删除它。

Facebook特别关注照片,至少在涉及欺凌指南方面。

9)Facebook允许分享实体欺凌的视频,只要在帖子上没有其他评论

主持人还被告知要忽略身体欺凌的图像或描绘7岁以下儿童的非性虐待的图像,即使图像带有负面评论。 但如果上述照片中存在虐待狂或庆祝元素,那就是Facebook删除或对其采取行动的时候。

Facebook对性虐待儿童的指导方针有更严格的指导。

10)Facebook过去常常让用户直播自我伤害的尝试

Facebook在文件中表示,他们不想“审查或惩罚那些正在尝试自杀的遇难者”,但他们会在任何一次所有帮助此人的机会过后删除这些镜头。 他们对规则有例外:如果它有新闻价值,他们会保留录像。

Facebook此后修改了他们的政策。 现在,主持人被要求取消所有显示自杀的视频,即使这些视频是“由受害者以外的其他人共享以提高认识。”唯一的例外是自杀视频的新闻价值。

在旁注中,新闻价值已经成为Facebook调节的一个重要考虑因素,因为他们有争议地拍摄了一张标志性的越南战争照片,其中有一个裸体女孩。

据文件称,Facebook决定不删除试图自杀或其他形式自我伤害的人的视频,据说是由专家的建议引导的。

11)Facebook选择采取行动的自杀威胁

当意图“仅通过主题标签或表情符号表达”或当该方法表示不太可能成功或者将来杀死自己的威胁超过五天时,主持人被要求忽略。

12)只有在存在“语言特异性”的情况下,Facebook才会对暴力威胁采取行动

Facebook认为,一般来说,暴力语言是“不可信的”,直到它指定足够的细节,它成为对目标造成伤害的阴谋。 没有“语言的特殊性”,Facebook将书面暴力威胁视为“不可信”,并且是“不喜欢和沮丧的暴力表达”。 有了这个立场,Facebook认为诸如“我要杀了你”或“滚死”这样的表达方式是不可信的,因此,不值得采取行动。

13)Facebook认为暴力死亡的视频虽然令人不安,但仍会产生意识。

文件说“未成年人需要保护”而“成年人需要选择”。

描绘人类暴力死亡的视频标志着“令人不安”。 它们不会自动删除,但应该“对未成年人隐藏”。

Facebook的推理是意识。 文件称,这类视频可能有助于提高人们对“自我伤害和精神疾病或战争罪和其他重要问题”的认识。

14)出于意识原因,动物虐待内容可能会留在平台上,但它们会删除“庆祝虐待动物的内容”。

根据文件,极度令人不安的动物虐待图像,包括但不限于动物残割,折磨,踢或殴打动物可能会被标记为令人不安。

提高意识再一次成为Facebook推行该政策的理由。 他们表示,他们谴责滥用行为,并补充说,有些类型的动物虐待内容被删除 - 内容“庆祝残酷”。 - Rappler.com