Facebook如何决定何时审查谋杀和自杀的视频以及何

想象一下,有两个Facebook用户发布了“自焚”的视频,或者让自己着火了。这两个视频都包含难以查看的图形素材,有关上下文的信息以及解释它的标题。也许一个用户认为这是一个重要的展示,并且有人认为这很有趣。Facebook如何知道哪一个要审查?在广受欢迎的平台上允许某些类型的图形视频 - 如那些包含谋杀和自杀的视频 - 可以被视为支持其内容以及对其中受害者的剥削。将他们拒之门外可能会被视为审查制度,可能会掩盖一些关于让人不知所措的重要新闻。抗议者在Philando Castile的致命射击后示威。 Facebook Live视频显示该官员用枪指着b在军官开枪打死卡斯蒂利亚之后。 Facebook上是否允许这种视频? ROBYN BECK / AFP / Getty Images有很多在线共享暴力图像的例子成为重要新闻。 Facebook Live视频中一名警察致命地射杀了Philando Castile,引起了全国性的反响,并继续就警察对黑人的暴力行为进行长期谈话。在社交媒体上传播的另一个令人沮丧的形象显示,有两个人因吸毒而昏倒,而一个孩子则坐在汽车的后座上。这种形象具有深远的政治影响。另一方面,Facebook可能不希望成为寻求​​和庆祝病态图像的人的来源。考虑一下2012年的事件,色情演员Luka Magnotta拍摄了他的视频自杀一个学生。 Magnotta将视频发送给Bestgore.com的所有者Mark Marek,这是一个专门针对真正恐怖恐怖的网站。马雷克发布了臭名昭着的视频,这让他对Magnotta产生了极大的关注 - 但这也导致了Magnotta的被捕。尽管如此,加拿大法院判定马雷克发布了该视频,称该帖子“道德败坏。”美国法院可能会开始做出类似的定罪。在有争议的法案SESTA(停止实施性贩运者法案)和FOSTA(打击网上性交易法案)之后,Facebook等平台必须提防。国会越来越多地开始拥有互联网平台,用户通常可以在没有公司正式员工审查的情况下发布任何他们想要的东西,对此事负责那些用户发帖。有些人批评这些法律对自由互联网不利,他们对Backpage.com的删除负责.Facebook有社区标准,详细解释了什么是允许的,什么是不允许的,以及可能发布的内容。警告屏幕。在涉及图形暴力时,不允许用户发布图像,包括视频,无论是否存在,真实的人或动物包含“享受痛苦”或“对痛苦的色情反应”。然而,允许“在医疗环境中”残割和肢解的图像和“当该行为是一种政治言论或有新闻价值的形式时的自焚”以及一些更具图形的例子。在这些情况下,Facebook会设置一个警告屏幕,人们必须点击它们Futurism报道,目前,Facebook正在使用人工版主和人工智能系统来扫描和删除他们认为违反标准的内容。芯片上的AI会更高效,并且需要更少的计算能力。暴力存在于恐怖和新闻的交叉点。由法律,互联网平台和个人决定哪些内容应该在黑暗中保存,哪些内容应该被揭露。