位置: 云顶集团 教育 为什么Facebook不能取消所有恐怖内容?

为什么Facebook不能取消所有恐怖内容?

作者:伏锾 来源:本站原创 时间:2019-07-22

包括Facebook在内的全球巨型社交媒体公司将于今天出席参议院商务委员会会议,听取题为“ 听证会

去年,英国下议院的内政委员会与同一家公司举行了听证会。 2017年年中,议会机构发布了一份严厉的 ,其结论是社交媒体公司“远非采取足够的行动”。

Facebook长期以来表示,它承认消除恐怖主义内容的 ,并政府会做得更好。 然而,来自研究员埃里克费恩伯格的新证据表明,在监控违反Facebook自身社区标准的内容方面存在持续漏洞。

Feinberg与Just Security分享了他的发现,这是第一次在这里报道。

英国议会报告一再批评社交媒体巨头有效识别和删除对其底线产生负面影响的内容 - 例如广告和侵犯版权 - 但没有表现出对发现和删除极端主义内容的同样承诺。 报告指出:

主要的社交媒体公司足够大,足够丰富和聪明,可以解决这个问题 - 因为他们已经证明他们可以做广告或版权。 可耻的是,他们没有使用同样的聪明才智来保护公共安全并遵守法律,因为他们必须保护自己的收入。

Feinberg是GIPEC(全球知识产权执法中心)的创始合伙人,并开发了一种专利工具,用于检测社交媒体平台上的欺诈和恶意活动。 他的研究之前曾导致广告商 ,他们被警告其内容与宣传恐怖主义,新纳粹和其他仇恨团体的视频有关。

他的研究也出现在社交媒体公司未能控制其平台上的其他恶意活动的新闻报道中,包括 , , 等等。

Facebook有ISIS问题吗?

Feinberg在Facebook上对亲ISIS账户的研究的第一个教训是,他的工具似乎可以检测到Facebook自己的算法和监控系统无法识别的内容。

在2017年12月至2018年1月的一个月内,Feinberg匿名向Facebook报告了数十个亲ISIS页面。 在其中56%的案例中,Facebook删除了违规页面。 换句话说,这种材料显然逃脱了Facebook自己识别和删除恶意内容的方法。

然而,第二个教训可能更加诅咒 - 它表明即使在直接通知恶意内容之后,Facebook也决定不删除明显违反其标准的网页。

最重要的调查结果相应于Feinberg的另一类案例:公司在每个案例中告诉他的44%的报告,内容“不违反Facebook社区标准。”问题是难以实现识别Facebook删除的内容与其保留的内容之间的任何有意义的差异。

为自己判断。 Facebook声称没有违反其社区标准的内容包括一张带帽子的枪手的照片,他们将武器瞄准城市街区,标题为“我们会在你家中袭击你”。

FB-1 Facebook的

在另一个案例中,Feinberg报道了一个页面,该页面本身就是由伊斯兰国臭名昭着的宣传杂志Dabiq启发的在线出版物,尽管在这个例子中它被称为Dabiq Bangla新闻社。 该页面显然是风格化的,以促进孟加拉国社区的ISIS。

当Feinberg于12月19日向Facebook报告该页面时,该公司两天后回复说它没有违反他们的社区标准。 本周一,在参议院听证会举行前两天,Facebook似乎已经了该页面。 但要找到像这样的并不需要太多工作。

该公司称“不违反Facebook社区标准”的另一页称赞奥兰多夜总会以上帝的名义进行攻击并说“像奥马尔一样,并且喜欢他。”枪手Omar Mateen 已经宣誓效忠于伊斯兰国在进行大屠杀之前。

FB-2-1 Facebook的

这些内容似乎明显违反了Facebook的明确政策。 根据其社区标准,Facebook 该公司将“删除表示支持涉及暴力或犯罪行为的团体的内容”,包括“恐怖活动”以及支持,赞扬或纵容此类活动的内容。

根据去年向卫报文件,这份公开声明也与Facebook为其主持人提供的一致。

在该公司网站的问答 ,Facebook全球政策管理负责人Monika Bickert(将于周三出席参议院会议)表示,该公司已将其最前沿的技术集中在ISIS和基地组织相关的问题上。内容。

她还写道:“每当我们意识到恐怖主义时,我们就会删除支持恐怖主义的恐怖分子和职位。 当我们收到有关潜在恐怖主义职位的报告时,我们会紧急审查这些报告并进行审查。 ...... [W]不希望Facebook被用于任何恐怖活动。“

她补充说,“在理解这种背景时,算法还不如人们好。”但人们有多好?

早在去年5月,英国议会委员会就社交媒体公司的总体结论得出结论:“在实践中对社区标准的解释和实施往往是缓慢而随意的。 我们已经看到了一些例子,主持人拒绝删除违反任何正常读取社区标准的材料。“社交媒体公司也承诺要做得更好。

Feinberg的研究中的第三个发现指出了涉及虚假或不真实账户的特定漏洞的可能性。 Facebook声称它“在检测由重复犯罪者创建的新假账户方面得到了更快的速度。”然而,Feinberg发现了一些案例,其中现有但半休眠的帐户似乎被黑客入侵,然后用于宣传ISIS内容。

GettyImages-669889770 Facebook首席执行官马克扎克伯格于2017年4月18日在加利福尼亚州圣何塞麦克内里会议中心举行的Facebook F8开发者大会上。 贾斯汀沙利文/盖蒂

更重要的是,Feinberg告诉Just Security ,建议帐户可能被黑客攻击的相同指标可能会被包含在内部算法中以检测此类情况。 这些变量包括不再与页面的网址(url)中的名称匹配的配置文件名称,以及语言的突然更改。 Feinberg与Just Security分享了一些例子,其中单页上的早期帖子是西班牙语,最近的帖子是阿拉伯语。

缺乏透明度,故障所在

Facebook拥有巨大的力量来影响世界上很大一部分人口的生活。 尽管该公司未能阻止与恐怖主义相关的内容可能会受到一些人的批评,但其对公司认为恐怖主义相关内容的规定可能会 。

但是,如果Facebook不完全透明,那么公众和民众的当选代表如何才能开始解决这些问题呢?

标准的透明度:例如,关键问题之一是公司如何定义恐怖主义和相关暴力。 [请继续关注Just Security的更多相关主题。]

恐怖主义内容规模的透明度:当“卫报” 内部Facebook文件显示该公司的主持人在一个月内将1,300多个帖子确定为“可信的恐怖主义威胁”时,“Facebook对这些数字提出质疑,但没有详细说明。 它还拒绝透露其他月份的数据。“

致力于阻止恐怖主义内容的资源透明度: 和 ,谷歌,Facebook和Twitter 告诉英国议会委员会他们雇用了多少员工来监控和删除不当内容。

新颖的是我们仍在谈论Facebook上的恐怖主义内容,特别是2018年的ISIS。自2014年以来,这一直是一个引人注目的问题。

那一年,英国情报机构GCHQ的负责人 ,科技公司似乎“否认”伊斯兰国如何滥用他们的平台。 然而,与其他社交媒体平台相比,Facebook可能在监管恐怖主义内容方面更加积极,自2016年底以来,他们与其他大型科技公司合作寻求共享解决方案。

但事情显然仍然缺失。

众所周知,难以通过算法识别极端主义内容,尽管Feinberg的工具似乎可以捕捉到Facebook没有的内容。 Facebook的问题也可能出现在人为适度的体系中,包括糟糕的政策指导或 。

科技公司显然有财务影响,需要投入更多资源来监管恐怖主义内容,从而建立抵抗力量。 公众完全有理由深入了解社交媒体巨头的行为不起作用的原因。

现在,国会正在增加自己的知识和对问题的认识,这些公司一直无法自行解决。

瑞安古德曼是Just Security的联合主编,纽约大学法学院的Anne和Joel Ehrenkranz法学教授,以及前国防部总法律顾问的特别顾问(2015-2016)。

打印此文】 【关闭窗口】【返回顶部】 [
相关文章
推荐文章
栏目导航