Facebook被批言行不符:制定了许多新规则改善平台 却敷衍执行

云端智联 1.3K

腾讯科技讯 10月16日,社交媒体巨头Facebook今年制定了一系列新规则,旨在改善其平台上的言论。但最新测试发现,当用户报告违反这些规则的内容时,该公司往往无法执行这些规则。

Facebook允许所有用户在认为内容不属于该平台的情况下对其标记以进行审查。当报告了150多条Facebook后来证实违反其规定的内容时,该公司的审查系统允许这些材料中的3/4继续保留,即使其中有些描述或宣传暴力。

Facebook发言人萨拉·波拉克(Sarah Pollake)说,Facebook在上述测试中屏蔽内容的错误并不能反映其内容审核系统的整体准确性。她表示,为了控制每天发布到Facebook平台上的1000多亿条内容,该公司既审查用户报告,又使用自动化工具积极筛选内容。她说:“我们的首要任务是根据严重程度和传播速度删除内容。”

在充满争议的选举周期和社会动荡中,这家社交网站制定了许多新的规则,比如禁止传播宣称与极左反法西斯抗议运动antifa有关的纵火犯是美国西部灾难性山火喷发幕后黑手的信息,并禁止庆祝两名洛杉矶议员遭枪击伏击事件。在此之前,该公司表示,不允许赞扬在威斯康星州基诺沙(Kenosha)的“黑人的命也是命”(Black Lives Matter)抗议活动中枪杀三人的事件。乔治·弗洛伊德(George Floyd)的死引发了全美范围内对警察暴行的抗议。

上周,Facebook宣布了几项与11月3日总统选举相关的措施,包括禁止任何含有与投票监督行动相关的军事化语言的帖子。周一,Facebook首席执行官马克·扎克伯格(Mark Zuckerberg)说,由于反犹太主义的抬头,Facebook禁止在其平台上否认大屠杀,加强了此前对这类内容的限制。

周三,Facebook的内容审查重新引起了人们的关注,因为该公司限制了《纽约邮报》关于民主党总统候选人乔·拜登(Joe Biden)儿子的文章在线分享,称需要定期审查该平台内容的第三方事实核查人员的指导。然而,在一个拥有18亿日活跃用户的平台上,制定规则禁止内容并不意味着内容总是从Facebook上消失。

哈佛大学讲师、伯克曼·克莱恩互联网与社会中心(Berkman Klein Center for Internet&Society)研究员伊夫林·杜克(Evelyn Douek)说:“Facebook宣布了很多政策声明,这些声明在纸面上听起来很棒,但人们对他们执行书面规定的能力或意愿感到非常担忧。”杜克主要研究社交媒体公司规范用户行为的努力。

在9月下旬的几天里,美国媒体标记了276篇帖子、热梗和评论,它们似乎都违反了Facebook反对推广暴力和危险错误信息的规定。据悉,Facebook删除了32个帖子,留下了关于左翼纵火阴谋的虚假帖子,对基诺沙暴力事件受害者的笑话,他们受伤的可怕图像,以及希望在无端枪击事件中幸存下来的洛杉矶警长副手死亡或终身残疾的评论。

Facebook对标记帖子进行了标准化的回应:“我们知道这不是你们想要的,我们认为如果我们解释审查过程是如何运作的,可能会有所帮助。我们的技术人员审阅了你们的报告,但最终我们决定不删除这些内容。”

Facebook发言人波拉克说,当相关媒体联系Facebook,审查该公司的审核系统认为允许发布的240多条帖子时,该公司最终得出的结论是,超过一半的帖子“应该因违反我们的政策而被删除”。该公司后来删除了其中许多帖子。波拉克说,由于Facebook的人工智能系统越来越倾向于识别有可能像病毒一样传播的内容,因此对目前浏览量不大的新闻文章或私人群组帖子的评论,只会被给予较低的审查优先级。

这些决定既突显了Facebook在执行其政策方面遭遇的困难,也突显了该公司在定义哪些内容被允许、哪些内容违反规则时做出了细微的区分。例如,Facebook反对诋毁悲剧受害者的政策有一个例外,那就是关于受害者犯罪历史的陈述,即使这些陈述是虚假的。

扎克伯格警告说,美国大选可能有导致街头暴力的风险,并宣布了一系列措施,以阻止煽动任何形式暴力的错误信息和内容传播。该公司表示,它已经删除了超过12万条违反选民干预政策的内容,并在超过1.5亿条被Facebook的事实核查合作伙伴认为是虚假的条目上显示了警告。

Facebook还面临来自用户的压力,用户抱怨其内容政策过于严格,限制了公众言论自由。在被泄露的内部会议录音中,扎克伯格告诉员工,用户最常见的批评是公司删除了太多帖子,其中许多用户认为这是对保守观点的偏见。Facebook的内容审核系统依赖于用户报告和自动检测系统,该系统寻求立即删除违规内容或标记潜在的违规行为,供人类审查。然后,Facebook的算法会优先考虑其数千名人类审核人员(通常是合同制员工)审查的内容。

Facebook发言人波拉克说,与新冠肺炎疫情相关的业务中断,以及对其人工智能系统的改进,促使该公司将资源转移到对帖子的自动审查上,而不是单个用户的报告。在8月份的一篇博客文章中,Facebook表示,其人工智能可以“通常比用户报告更准确地检测到内容违规行为”,并“更好地优先考虑我们审查团队最具影响力的工作”。

美国媒体的测试发现,Facebook处理用户报告的速度并不总是像承诺的那样快。被标记的大约一半的条目在24小时内完成了审查,这是Facebook系统最初在其自动回复消息中表示将提供回复的时间框架。不过,有些帖子仍然悬而未决的时间要长得多,有几个帖子仍在等待两周多后做出决定,包括据报道煽动暴力或宣扬恐怖主义的帖子。

在上周与记者的电话会议上,Facebook负责诚信的副总裁盖伊·罗森(Guy Rosen)拒绝透露Facebook平均需要多长时间来审查用户报告的内容。报告系统为用户提供了对公司的决定提出上诉的机会。但Facebook在一天后自动发送电子邮件回复,声明新冠疫情导致的资源有限意味着“我们不能第二次审查你的报告”。

这条信息建议隐藏或屏蔽“令人不安”的内容,而不是提出上诉,并表示这些用户报告将被用于训练平台的算法。 (腾讯科技审校/金鹿)

我们将24小时内回复。
取消