“Delete”“Ignore”......在反复不断的“删除”或是“忽略”的声音中,导演Hans Block和Moritz将我们代入了第三世界的网络审查员的视角。
社交媒体自诞生至今十五年以来,已经演化成为一件强大而危险的工具,在美国政选中,可以成为左右民主选举的强大异能,也能变成不知不觉改变民众思想的政治力量,比如俄罗斯通过操作社交媒体影响美国政选、英国脱欧民众受到媒体影响等事件曝光后,引起世界的一片哗然。
而这部纪录片作为尖锐的提醒:“我们可能会失去民主,因为我们愿意放弃。”但究竟谁有资格成为社交媒体的嘴巴,谁有权利决定信息流的审核?
《清道夫》通过选择拍摄观点对立的双方,来揭露互联网审查的矛盾。科技公司在第三世界菲律宾存在大量审核内容的审查员,而处于对外宣称外包公司的灰色地带,审查员们面对大量的暴力、色情内容时,一位匿名审查员这么说道:“感觉体内有种病毒在慢慢入侵我的大脑,然后我辞职,我需要停下,这工作有问题。”
科技公司需要有道德责任,于是建立起人工筛选过滤制度,而给审查员心理遭受的极度不健康影响并没有得到重视,而酿成了员工自杀的惨剧。作为第三世界的外包公司中的员工,他们像是一道道黑暗的闸门,阻止着社交媒体上仇恨的传播。其中就不乏极端组织的残忍处决、难民问题造成的儿童死亡、战乱现场......这些触目惊心的场景成为审核员的日常工作。
影片聚焦在这些审查员和不同立场的对象身上,通过采访的对白,一句句戳进互联网监管的内核,而导演的高明之处在于展现矛盾对立对象的平行对话,站在不同的视角,有着不同的利益和立场的人,是怎么思考和回应网络监管的问题:艺术家有自己强烈表达的欲望、科技公司屈于利益关系选择政治干预、第三世界审查员们局限的文化教育背景......
可就像这个不可调和的世界一样,纪录片无法改变只能作出回答:人性本身具有复杂的双面性,网络不过是放大它。而我们再怎么“Delete”或“Ignore”,也无法删除或忽视掉作为人类,我们不愿意面对的一面。
你知道为什么有的微博内容会被官方删除吗?你知道为什么B站博主发的视频有一些不能通过审核吗?你知道为什么微博热点会被撤下吗?……这些背后存在着特殊的工种,那就是“网络审查员”。
《网络审查员》是我无意间在微信公众号看到的,吸引我的就是它的特殊,这是我从未听说过也从未关注过的一个工种。出于好奇,我利用下午的空闲时间将其看完。
这篇影片是纪录片,它讲述着一群网络审查员的真实工作。什么是审查员?就是网络的清道夫,清理不符合规定的图片,影片。他们是由互联网一些平台比如脸书,推特等等来和菲律宾的外包公司合作,清理网络上的罪恶(黄色内容,反政治言论,血腥暴力等)。塔曼的工作看似简单,实则不易。
在菲律宾,很多工作的薪水都很微薄,为了能够获得好点的生活,会有一些人选择了网络审查员这个工作。有个女孩面试的时候,看到的视频是恋童癖,一个女孩正在进行口交,而另一个影片则是,一个女孩身上都是精液。对于这些画面,她无法忍受,但因为工作需要,还是要克服自己心中的那个坎。另一名女审查员在步入这个行业之前是很单纯的,一些敏感词比如肛交之类的含义她并不清楚,为了这份工作,她甚至通过看性爱片进行学习这些词。除此之外,因为全球化劳动力,对于审查的内容多数是来源于其他国家,而对历史背景一无所知的情况下,审查的难度就会增加。
在审查的眼中,有些艺术不得不删除。有个女艺术家画了一个川普裸体,并且画上了一个很小的生殖器。虽然审查员知道这幅画表达的意思是,川普的能力和他的生殖器一样弱,不适合领导美国。但是涉及到裸体的图片是审查的底线。尽管艺术家自己认为,为什么会有人觉得裸体恶心。还有一个摄影师,他对叙利亚十分关注,他将一个溺水的小男孩发布到他的脸书上,不到三天就被删除。虽然他想呼吁战争的可恶,政治间的博弈造成无辜生命的丧失,但是影片涉及到sisi影片,审查员不得不删除。
审查在一定程度上,阻挡了黑暗,但也阻挡了真相。叙利亚战争的打响,很多难民都会通过手机记录真实的情况,最后却无法过审。
联合国言论自由权特别报告员说“这些公司越来越多权力决定什么留下什么撤下,利用人乐于安逸,讨厌努力,讨厌挑战的心态。随着时间的推移,总有一天,丧失我们进行批判性思考能力,妨碍接收挑战的能力,造成限缩言论。”
网络审查员的本质是不容犯错,他们决定着人们将会看到什么。而看到的这些东西,很可能引发战争,霸凌,犯罪现象等等。所以他们小心翼翼。这是一项不轻松的工作,更是一份艰巨的责任。有些黑暗是光无法到达的地方,只有审查员能替我们前往。虽然有利有弊,但是利大于弊总是好的。
(摘抄:社交媒体是中性的,不会助长什么,但如何才能吸引眼球增加关注是原因,而愤怒是最有效的诉求。)
“很多我看过的照片,我都不记得了。”
镜头里呈现出的是一张倒映在玻璃上的脸,而真实的脸却是模糊的、侧视的。因为他在逃避,他在说谎,他无法正视镜头,他不会真的忘记。就像说完这句话之后,他说起了上次直播上吊的男子,还对当时观看直播的观众评论记得清清楚楚。
很难想象在长时间进行这样的工作后,他们会如何看待这个世界?麻木,冷静,PTSD,绝望自杀,或者是像影片中那样,选择继续工作,把它当成一种责任。而在强人工智能时代到来之前,至少还有很长一段时间,网络世界和我们都少不了他们。
冲着这部片子瞄准的主体,我就想给五星。希望能让更多的人知道,Moderator/网络审查员的工作不像大家戏谑“鉴黄师”那样轻松;网络所释放的欢愉和轻松,也只是他们过滤后的简化了的世界。
#一百部纪录片计划#002《网络审查员》
几个事实:
1、网络世界,是一个虚拟世界,它并不是现实世界的本真反应,更像是一个基于现实世界某点的放大镜或者哈哈镜。网络平台,无论是社交媒体、视频网站或者搜索引擎呈现出的内容都是经过筛选和审查的。通过网络看到的世界,是带着滤镜或者有色眼镜看到的世界,但很多人以为现实就是如此,这是一种幻觉。
2、硅谷科技巨头,脸书、推特等,包括国内的字节所宣称的技术和算法中立,是一种谎言,因为这些平台的商业模式是广告模式,获取更多的用户、更多的转发和关注是他们的目的,这必然导致算法推荐带有诱导更多观看和分享的基因,刺激情绪的内容,加强极端言论的内容会有可能获得更多的推荐和传播,算法中立本身是不可能的,正如脸书的产品经理所说,脸书事实上对美国内部极端意见群体的对立冲突,起到了推波助澜的作用。
几点值得思考的问题:
1、如果网络反应的不是一个真实的世界,真实的世界,有善恶美丑,网络为了限制罪恶的扩散和影响,需要把色情、暴利、恐怖等内容进行审查删除。
那么如何界定内容的标准?艺术图片与色情图片、战争新闻与恐怖影像,邪教与神学……如果确定审查的标准与界线?
2、谁有权力制定审查的标准和界线?平台的审查标准和不同国家的法律标准是否足够公开透明?
3、执行审查工作的人的心理健康如何保护?
就如片中展示的,一个人每天2.5万张图片,几乎每个审查员每秒就要审查一张图片,其中会有大量传播色情、罪恶的内容,他们过量摄入了这些恶的东西,就像毒素一样侵入他们的大脑和心灵,冲击着他们对世界真善美的信念,有的人需要通过信仰上帝,用宗教来安慰自己的罪恶感,有的人变得麻木,有的人看了太多自残视频,过于悲伤,申请调岗而不得,最终抑郁自杀……
这些菲律宾的审查员为了相对当地较高一些的收入,以牺牲自我心灵为代价,在“保留、删除”的程序工作中异化自己、奴役自己,在自我美化、自我救赎和自我毁灭中挣扎,这是一份残酷的工作!
很有意味的一点在于,这种残酷的工作以第三方外包的形式存在于发展中国家,而硅谷只是宣称连接美好…就像一个事物的光与影,光辉留给了硅谷与科技创新者,暗影留给贫穷国家的打工者。
技术、媒介是中性的吗?傻子都知道不是。不然也不会有网瘾和杨永信了。
反过来看,而互联网曾经承诺的“连接每一个人”的乌托邦,在当今现实里的大图景到底是什么样子?
社交媒体,在总体上,是否将把我们的世界变得更好呢?
这几年对互联网和智能手机全球性地改变人的行为的嘲讽或自嘲也不少见了。
前不久又爆出脸书向剑桥分析泄露5000万用户而被用来操控选举的新闻。
上个月中下有哥本哈根纪录片电影节,偶然去看了这部 《清理者》The Cleaners。
片中播放了去年年末美国法庭关于 俄罗斯和2016年大选 Russia and 2016 Election Investigations 的调查。法官质疑,这三大公司的内容环境受到国际政治力量的左右,影响选民,以及被用来组织、散播、宣扬非人道的行动。唯唯诺诺中互联网公司的法律负责人(我不确定这里使用的名词是准确的)说到了自己外包了大量的员工来审核内容的事实。而脸书透露出,他们雇佣的审查者居然有数千人之众,而且未来还会继续增加人数。
——这些被雇佣的网管就是本片的主角,他们内部自称为“内容仲裁者”content moderator,所谓的“清理者”。这是一个驻扎在菲律宾马尼拉的公司,而他们的职业对于外界是一个秘密。
影片开始的时候,镜头在一间典型的现代白领办公室里,关着灯,只有一个人操作着一台亮着的电脑,并只能看到这个人面部的局部。背景音不断回放着,“删除”delete/“无视”ignore/“删除”delete/“无视”ignore……随后镜头跟随同一个主角描述ta夜晚上班的场景,穿过熙攘、喧闹、混杂的马尼拉的城市街道、高架桥,进入一栋漂亮的办公楼。在喧闹拥挤的亚洲城市里,做一项秘密却关乎数十亿人口的工作。这就是他们的工作内容,而操作看起来如此的简单,就是审核每天从全世界上传的上百亿的照片、图片,然后决定是要保留还是删除。
脸书内部关于上传信息内容规定的条例相当复杂,关于对暴力、色情的内容判定是否删除的规定,有一百多条。然而在去年被卫报曝出来以前鲜有人知。被采访者包括Google的负责人、工程师,面对镜头,检讨公司创始人们对中性技术的美好设想并没有尽到相关的责任;而另一方面也列出了关于支持自由者的质疑,包括一些内容被删的艺术家、摄影师。
“这些规定也让自由言论倡导者担忧。他们认为,Facebook可能已经成为了世界上最大的审查员,该事实敲响了言论自由的警钟。”
脸书提供的强大平台,涉及了一系列冲突明显的社会问题,包括美国内部的种族,西欧对移民的态度——到底是发泄不满,还是有组织的政治立场,这两者界限模糊。以ISIS为例的恐怖组织也在借脸书宣扬自己的。片中截取的片段。蛋最让我看不下去的是缅甸迫害罗兴亚人,一个母亲对着镜头哭诉自己的家庭怎样被迫害。——这种原本平缓融洽的文化混杂,被西方殖民者弄得互相仇视的例子早就不新鲜了。
传播能力的扩大,既然足够提供人与人的连接,也可以能让人与人更加分裂。爱是可以被传播的,那么仇恨也可以;敌意、仇视、偏见,技术本身不会过滤任何人人心里的东西。
回到清理者们,这项工作是否看起来十分简单?
然而,到目前为止机器/ AI还没有能力处理人类复杂的认知和表达。光是言论,根据不同的语境,是发泄情感还是表达真实意图都难以判断;再加上图像、视频中更加复杂微妙的视觉语言,机器对此无能为力。而这些内容仲裁者也有很大的负担:他们的神经每天要处理25000项图片或视频,而对每一张图片最多只有8秒钟做判断。这对大脑是巨大的负荷。
更糟糕的是,他们要经手的材料大多都是令人不适甚至不安的内容:色情、虐待、战争、恐怖组织的非人道行为——尽管在正式工作之前已经被训练去应对这些内容,但仍对他们的日常生活也造成困扰,也包括道德上的处境。
开头的场景展示了他们的两难处境,深处闹市,却做着全世界的网管,而工作内容也不能让身边的人知道——他们需要一个让自己心安理得的身份,当然也需要这份得体的薪水;他们不得不相信自己确实是在有尊严地维护秩序。很多人也因为上面这些原因放弃了这份工作。
技术到底带来了什么呢?纪录片的好处是,导演呈现给你的是各方视角和立场。这个问题暂且还不会有结论。
它是给我们所有人的问题。
片头片尾,截了两段扎克伯格对公众的演讲;看他如何表情坚定、豪迈地谈论脸书如何能够成就新的未来。
然后片尾字幕亮起,意味深长,留下片场一片唏嘘。
“太可怕了。太可怕了。”
我跟波兰的好朋友聊起感受,感觉出来的大概是对全球网络的这种无序状态和其无解的担忧。——就他所言,人们还是倾向于相信,世界是需要秩序的;但由谁来引导呢?现在的声音越来越多、越来越庞杂,到最后就是谁也不服谁。朋友说,这里为什么美国人会雇佣菲律宾人就很玩味了——菲律宾是个天主教国家,在价值观上跟西方基督教世界更相通。
技术悄然滋生的权力绕过了所有人的眼睛,但信息审查是真实存在的。(你看,我们的互联网环境在世界上也没有那么特殊嘛)
过去的“信息集权”提供了同一套世界的框架;哪怕你要质疑某个事实,要叫骂对着的也是同一个屏幕。而今天每个人都在自己的屏幕里接受现实,在传送到自己眼前的信息流里,营造自己世界的小泡泡——而且老一辈还带着上个时代的惯性:“那么多人都看了的信息,能不是真的吗?”。但外面还有个过滤的大泡泡呢。
信息是种权力无疑;我想对于很多人,这部片的隐喻是,我们以为今天的时代走向的是美丽新世界,其实背后并行着一个一九八四。——反正我对这种自由斗士的论调保持怀疑;有时不免有点“见到短袖子就想到裸体”的意思。
尼尔·波茨曼早在60年代就在《娱乐至死》里说过的话,到今天仍然适用:从有广播、新闻报纸、电视开始,这个世界的行动跟信息比率越来越小了,我们关注的大多跟自己眼前的事实、跟自己的生活无关。大多数事情不需要关注。而这个世界本身运行机制的复杂程度,远远超出一般普通人所能理解;这种理解也许是不必要的。 我们自己,是在为这个世界带来了更多的噪声,还是更多的秩序、平和呢?这个问题,互联网不会回答我们,技术也永远不会回答我们。
靠点击就能得来的东西并不真的属于我们自己。
这个世界会好的。不是因为技术,而是因为我们在把自己变好。
内容审查员就像是一名狙击手,我们的目标是违反应用程式规定的用户。 我妈妈总是告诉我,如果不好好读书,就只能跟她一样当个拾荒者,他们依赖捡垃圾为生,这是他们唯一知道的谋生方式。我害怕自己将来只能留下来跟着捡垃圾,这也是促使我用功念书的一个原因。 2016年1月,我画了一张男性器官很小的川普画像,叫做“让美国再次伟大”,它立刻爆红,数百万人在许多社群平台上疯传,几天后川普在竞选辩论中提到自己的器官尺寸,我记得有朋友打电话告诉我说,是你让川普在辩论中透露他的器官大小吗。 作为内容审查员,你必须要有原则,是你在决定人们是否该看到某张图片,所以头号重大错误就是批准裸照、 和女性胸部、男性器官,这没有容忍的余地。 一个虚构的作品,它并不暴力,也无关性爱,它只是一个人的裸体配上川普的脸,不懂为何人们会觉得人的裸体这么恶心。 这工作真的不好做,但最后却成了带罪恶感的乐趣,感到罪恶是因为我居然在看这样的东西,乐趣是因为我现在很享受看到的内容。 脸书基本上就是一家科技公司,有许多工程师经营,它重视自家产品,重视公司设施,它重视发展规模,重视用户体验,但它不是一家媒体公司,它不会考虑到内容或内容创作,或是内容编辑和审查的事,这些事并不在它的基因里面,只要脸书碰到有人说,“嘿,你们要为这内容负责的时候,他们的答复会是,‘哦,我们只是搞数学的,我们只负责写演算法,去提供你们想要的东西,我们不干涉编辑’”,但政治现实是在川普之后,在英国脱欧之后,这样的说法已经不行了,我们现在在一个点上,只要大众不接受现状,在某些点上政府就会立马介入,我认为脸书是了解这情况的。 YouTuBe一直希望能够跨越国界,因此从2007年左右,我们遭遇许多被封锁的情况,当土耳其政府不知如何与你取得联系时,他们索性关闭你在该国的服务。我们花了一段时间才弄清楚,是什么令他们感到不舒服,我们最后终于设法掌握了令他们不开心的特定影片,其中有些是关于凯末尔,有些则是他们声称违反土耳其法律的恐怖主义影片。我记得有一天我在凌晨两点,审查令土耳其政府感到不快的67个影片,从中做出哪些应该删除,哪些应该留下的决定,有个重点是对于一些影片来说,它们其实没有违反社群准则,所以一般不会从平台移除,可是却触犯了土耳其的法律,所以我们决定对土耳其用户采取IP位置封锁,土耳其用户将无法看到这些影片,我不喜欢这种解决方式,但这就是我们的做法。 街上聚集了许多了不起的人,警方在这里部署的人数相当多,我很好奇他们会在这里待多久,因为我知道只要他们一撤离,人们就会开始干架。 一些左派人士认为你政治不正确,我们这群人拥有枪支、子弹,受过训练,只要我们开始开枪射杀,我相信所有的赃东西很快就会消失。 人性归人性,而科技就只是种中性工具,并没有助长任何东西,但事实并非如此,因为科技确实存在偏见,偏见就是它实际追求的一个目标,那个目标就是什么才能得到最多人的关注,什么才能吸引数十亿人,成功转移他们的注意力,并且保持下去。 这项工作会损害你的大脑,让你觉得暴力是正常的,让你认为杀人,轰炸是正常的。 我不能让影片影响你,但这因人而异,有些人就是会受到画面的影响。 我突然自己,为什么要做这份工作,只是为了让人们认为上网是安全的,事实上在你的日常工作中,上处都是危险,我们在奴役自己,我们应该从麻木中觉醒,因为这并不安全,我们应该正视现实。 选择希望而非恐惧这需要勇气,期许我们可以建立比过去更加良好的环境,你必须乐观的认为你可以改变世界,我们投身其中,每一次都是一种联系,每一次都是一种创新,日复一日,日复一日,这就是为什么我认为我们一起投入的工作,现阶段比以往任何时候都重要。
应该让世人知道,有审查员这样一群人在工作。他们依照规定审核发布的内容,确保社交媒体的安全。
Ignore, Delete, Ignore, Delete ...... 这便是审查员的日常。
应该让世人知道,有审查员这样一群人在工作。他们依照规定审核发布的内容,确保社交媒体的安全。
开篇从员工的角度开始,员工感觉这工作是网络世界的安保人员,维护网络世界里面的秩序,避免有害内容传播。
员工都在菲律宾的马尼拉,这些就业让很多人脱离了以捡垃圾为生的困境,担当起家庭开支的重任。
工作强度有多大,每天的指标是 2.5 万个审核。那些员工可能没有开玩笑,可能真的会破吉尼斯纪录。
员工接触的内容有些哪些?儿童性交,暴力血腥,污蔑政治等内容。这些内容慢慢侵蚀人的头脑,审查员的心智感觉迟早会出问题。
平台角度,什么是不合适的内容?很难筛选。因为即便是由人来筛选甄别,也很难做好,别说是程序了。但平台是一定要承担这份社会责任的,有义务维护平台上内容的健康性。
为维护的工作上,也很难做好。平台会针对性地删除和屏蔽一些内容。Facebook 听从土耳其政府的要求,删除政治性言论、图片和视频。这个维护是不是过头了?
有的视频并不违反社交媒体平台的规定,不属于删除对象,但在土耳其被定为违法视频。对于这种情况,社交媒体平台的解决方法是根据 IP 来屏蔽土耳其的用户。
平台让言论传播更快速,言论自由便有遇到对立观点的情况,现实情况是,情况没有因此而促进双方的理解,反而激发矛盾。这种事情也怪平台吗?但平台确实有责任遏制散播仇恨。
从媒体的角度来看,像叙利亚处于战争的国家,很多血腥的图片或者视频,想引发社会的关注,但是也会被审核删除。
审查员每天都在看这些充满暴力、血腥、仇恨、色情的视频,他们的身心健康,公司会保障吗?如果审查员跳过这些视频,这与公司的制度相违背,会有扣减业务分数的惩罚。确实有出现过,部分审查员由于受到每天看的视频的影响,在家上吊自杀。
像fb这样的垄断型大企业,你说他搞审查是完全出于对使用者身心健康着想,才偷偷摸摸在第三世界国家录用这么一大批低学历打工者负责审核,我是完全不信的,这里不可能没有经济利益和政治立场的考量。
毕竟我在推特和脸书看到的关于中国的很多视频,有些比较血腥暴力色情的,他是没有删除的,你能说他们一点政治立场都不站吗?如果在脸书,一个内地的和台湾的骂起来了,内地的被举报会被封号,台湾的毛事没有,你说这里面没立场吗?我踏马是完全不信的。
抛开政治不谈,只看有没有权利审核。我觉得权力这个事,和脸书等媒体的垄断地位是分不开的,他的规模太庞大了,全世界都在使用,除非你不用。他当然没有资格审查,没有资格替别人的大脑做决定该怎么思考,但是一个垄断性大型私企,不是普通使用者能控制的,那就变成他怎么说怎么有理,你没办法。
脸书这类大型垄断媒体自认为可以审核使用者,但是,谁又来监管他们呢?谁在为他们站台,他们背后有没有被谁操纵?我们都不知道!!!!
清道夫不是人干的活。每天看各种黄色暴力血腥视频,有害身心。审查员有自杀的,也有宁愿回去捡垃圾,也不再看那些网络垃圾。
特别严肃、深沉、拓展视野和引人熟思的一部纪录片。新网络时代社交媒体在左右我们的思维动向,可怕的是它利用我们的潜意识,就在我们毫无意识之间替我们决定了一切。而被牺牲的网络审查员,真的新时代最悲伤职业。
“Delete, delete... Ignore, ignore”,以网络世界不为人注意的审查过滤工作展开,用Google和FB做引子,到最后拉开成了对极右思潮的兴起、政治讽刺的界限还有中东和罗兴亚人的全面涉及,88分钟里满满的信息量和各种立场。勾勒了网络世界近年来除去深网、色情交易和信息安全之外最严峻的现状。无法想象各位清道夫需要在工作中承受多少压力与伤害,才能换得一份维持温饱的工作;女孩穿行于垃圾堆的画面映照,十分加分。
当影像创作紧紧地与道德与立场捆绑,纪录片本身也跳脱开单纯的新闻属性,质问甚至鞭挞所有人习以为常的伦理框架。从网络清道夫,到社交媒体时代的仇恨传播,一块荧幕前后是监控的过犹不及,和话语的无孔不入。信息量大,有些话题点到即止,拍的精细完整,但再做扩充也无妨。
一部上影节北影节选片首轮一定被毙的纪录片出现在即将被迫全面退票转为免费包场的西宁,来自一个全球最大的被清理者组成的国度。
脸书YouTube推特上,内容合法不合法,是让一群外包的菲律宾人来审查。难怪影片中,故意让审查员看两张照片,一张是获普利策奖的越战照片《火从天降》,因为小女孩全身赤裸,被删;另一张,伊战美军虐囚事件,审查员看成了ISIS士兵在虐美军俘虏,被删。
发人深思的优秀纪录片,不能忽视的人群——网路清道夫
設計的場面和台詞過多,集中於弘大命題而遠離了作為網絡審查者的“人”。始終陷在一種美感過度的不適中。講演現場等視頻的活用很好。“被審查”的部分影像,那些自殺情色宗教與恐怖暴力,除了展示,真的沒有更好的方式了嗎?對影像資料的處理和使用,需要倫理上的再思考。JIFF0507M9
看到扎克伯格意气风发的脸,就像是这个世界真正的领导者一样。可怕的是竟然还有人把自己和国家的人民与希特勒和被屠杀的犹太人类比,渺小无力的我们只能对着社交媒体冒泡。
这群为了网络的健康与和谐默默付出的人们,难以想象他们每天要面对多少充满血腥、暴力、色情以及政治恐怖的镜头。他们目睹过自杀,目睹过砍头,目睹过性侵,出现一点小小的纰漏都可能会造成死伤甚至战争,他们在不为人知的地方守护着世界的和平
常在河边走哪能不湿鞋
① 网络审查的存在是必要的,如同现实生活中的质检、保洁和垃圾分类等工种;但对「垃圾」、「有害」的标准界定是模糊的;② 人与人之间的道德标准、族群与族群之间的习俗观念、国与国之间的法律政策都是存在差异,而遍及全球的社交网络平台必然无法普适所有地区人民;③ 平台工具的中立属性,与吸引点击的传播逻辑,形成天然矛盾;④ 国家和联合国都难以解决的矛盾争端,居然需要距离事发千里之外、月入几千元的审查员做出判断,真心无奈。
你好,你发表的关于《The Cleaners》的短评,因为含有违反相关法律法规或管理规定的内容,已被移除。感谢你的理解与支持。——豆瓣电影
很有意思的视角,第三世界廉价审查员,被剥削的不只是重复性劳动,还被迫承受了最为骇人听闻的精神暴力。后半部分上升到社交媒体就比较泛泛而谈了,无非是民主和民粹的讨论,作者立场也过于明显。这部电影本质还是猎奇,但也只有冲击力和未知能引发思考。
不涉及处在局域网的我们,主要介绍采访不存在的欧美几大上传类社交网站的图片视频的人工审查员,他们居然都是在菲律宾的当地人,每天面对两万多件的色情暴力政治战争等敏感信息。梦到大量不同男人生殖器的女基督徒,还有的看过上百段斩首的影像,在自残部门调离不成而自杀的员工,叙利亚老百姓拍摄的那些和isis的如何处理,开放网络后只识脸书的缅甸人被假消息散播利用挑起的大屠杀,最后现身的扎克伯格发布会好像把矛头直指大公司在建立自由之地的同时今后要怎么走向,穿插在美国被诉讼而改变准则的几次事件,对了解那些人背后的操作程序和世界阴暗面有不少直观的感受,联想在高墙之内被保护的这片土地更加唏嘘。
索爾仁尼琴說過“每個人有不知情的權利”,但是人又卻是好奇和獵奇。前幾年Dark Net第一季的其中一集就對網絡審查員有過展現。感覺這部紀錄片是擴展版,而且選取的事例頗具典型性。我依然覺得對於互聯網(尤其是移動互聯網)要採取謹慎甚至消極的態度。整個片最讓我印象深刻的是NGO組織對敘利亞內戰的社交網絡視頻爭分奪秒的保存。畢竟,很多視頻基於版權和審查已經無法被觀看,而本身又具備價值。其實,“知道太多”的審查員和違規視頻圖文資料庫同樣是個不穩定的危險因素。難道就不怕造反嗎?
一部片顶十季《黑镜》,而且与当下联系更紧密,讨论的核心仍处在on-going状态,没有人知道之后会发生什么改变。手法无甚高明,但贵在争议的提出和创作者的态度,毕竟很多难题并不可能也并不应当由这部纪录片来回答。
审查;还以为是日本人做的,原来是德国人;色情delete,战争暴行(宣传恐怖delete,反战ignore)但作为网络守望者的这部分菲律宾人不可能了解那个背景不好判断,忽略的害处:罗兴亚人的迫害,稀疏的言论自由:人里面不成熟、容易受恶影响的还是不少的,审查是一种偷懒的方式,人类就不用自己费劲去判断了,政治言论:油管的仅对该国ip屏蔽,也算厚道,那为啥我们不行?(大概扶植本国经济吧,也能偷懒,毕竟自己人好管);审查员自己的影响,每天看这些势必有影响(发条橙);网络使全球人心的共通,对于审查员更明显;言论自由观点(我的):事物都有丑恶一面,如果你没看到,说明你还不了解它;人总是需要假象的敌人(鄙视对象),外国移民、CXK。
看!这盛世,时代之恶,我在这儿先糊你脸上为敬。
引人深思。同样的内容在不同的语境下是不一样的,讽刺或者谴责是不是就可以?(实际工作中真的就遇到这样的情况啊)提供一个“干净”的环境是不是就不利于理性批判呢?非常不爽的是,这样一个“国际纪录片节”竟然放个样片给我看,中间字幕还因为剪辑版而字幕对应不上。