微信扫一扫
分享到朋友圈

上班9个月每天打开电脑就是色情暴力,现在她连鼠标都不敢碰.

作者:英国那些事儿 来源:英国那些事儿 公众号
分享到:

09-28

最近,Facebook因为一项官司,又成为了媒体的焦点:

一位曾为Facebook做内容运营的审查员Selena Scola将Facebook告上了法庭。

她是Facebook集团下的一个内容审查员,才工作了9个月,就因为“持续不断地接受过于暴露、令人不安的图片”而患上了创伤后应激障碍综合症(PTSD)。

所以她把她的直接雇主Pro Unlimited公司,以及间接雇主Facebook都告上了法庭。

这项诉讼一出,今年来频繁被聚焦的Facebook又被推上了舆论热点。

网友们纷纷表示:这事儿并不稀奇!

Facebook从决定扩展审查员队伍时,就应该预料到如今的局面。

Facebook作为世界上最大型的社交平台,一直以来都有自己的内容审查制度。按照他们的内容运营规则,用户在Facebook上传内容时,是没有预先审核的。

但是,如果有用户发现违规内容,就可以向Facebook管理方举报。

接到举报后,Facebook会去判定这些内容是否确实违规,

如果是,就需要将其删除,防止它继续被传播。

要判定被举报的内容是否违规,依然需要耗费大量的人力。

所以,为了应对越来越繁重的审核工作,在2017年5月,扎克伯格宣布Facebook要在原有4500人的基础上,扩招3000人至7500人。


这次起诉Facebook的员工Selena,正是从2017年6月扩招后,开始为Facebook做内容审核的。

然而,这里值得注意的是,Selena并不是直接受雇于Facebook。

她所在的公司叫做Pro Unlimited,是一家人事代理机构。

包括她在内的3000名新审查员,其实是作为Facebook的外包公司员工在工作。

这也就意味着,Facebook可能不会像对待直属员工那样,更好地为她们的心理健康提供支持服务。

在这里,她总共工作了9个月,每天都会接触到成千上万充满暴力和色情的图片,看各种有敏感内容的直播。

每天早上9点上班,她打开电脑屏幕开始审核的第一刹那,她看到的都是凶杀,暴力,砍头,血腥的内容.... 

而工作的要求,她必须每天接受和审核这样的内容,直到当天工作结束。 


渐渐的,Selena发现自己的精神状态出现了问题 

她开始觉得十分疲劳,失眠和社交焦虑越来越严重。

甚至在睡前闭着眼睛的时候,眼前都会浮现起白天上班审核内容时看到的场景。 


更严重的时候,

甚至都不敢碰鼠标....

以为一碰鼠标,都会瞬间给她各种不好的记忆,会让她整个人一惊。


审查了太多儿童色情内容后,她开始怀疑所有和儿童互动的人,甚至对婚姻产生动摇和不安。

随后她被诊断为患上了PTSD综合症。


于是,就如文章开头所说的那样,她将自己的直属公司和Facebook都告上了法庭,迅速获得了大量的关注。

虽然目前案件还处于起诉阶段没有结果,但可以预料到的是,

就算是迫于舆论压力,Facebook都会认真对待Selena的PTSD及她所代表的那批员工的心理健康状况。



那么,这样内容审核员的生活究竟是怎样的? 

就在Selena逃离了这个让她怀疑人生的行业、维护自己的权益之时,

在大洋的另外一头的印度,

还有一批年轻人,心怀期待地进入到这个行业,

将自己暴露在大量的“有害图片”之下,来不及考虑自己的心理问题…


之前有一部纪录片讲述了这些印度内容审核员的生活... 


【印度审查公司:审查员们一开始,都是满怀憧憬的职场新人】

这天是周一,印度的一家专业审核公司迎来了他们的新一批的员工。

这家公司的主要业务,是给他们的客户公司提供人工审核内容服务。

他们可以根据不同甲方公司的不同要求,训练不同的团队,


因为这份工作本质上就是靠人力和时间的投入,

所以随着公司的业务扩展,他们需要不断招聘新员工。

今天来到公司的这一批人,都是年轻人。

他们不仅没有接触过审查员的工作,也没有别的工作经验,算是完全的职场新人。

他们大多数都不是很清楚这份审查员工作到底是做什么的,但都非常珍惜这次机会:

就这样,这群懵懵懂懂的新人应聘成功、在合同上签好字后,就开始了人生的第一份工作。


大家都怀着美好的期许,希望自己变得更有经验,有机会成长。

至于他们到底能从这份工作中获得多少经验,这批新员工本身并不清楚。

面对还有点茫然的新员工,

负责人开始给大家介绍这份工作最基础的一些信息。

“你们都有自己的社交媒体账号吧?你们往上面传自己的评论,不同的照片。

那我想问你们,是否有在这上面看到过色情内容?”

听到大家小声回答“没怎么看到过”后,负责人继续说:

“你们应该都没有一打开脸书就看到满屏的黄图吧。为什么看不到,你们想过吗?

是因为没有人上传吗?不是的。是因为有审查员的存在!

如果没有规则和审查,网络就会变成一片混乱之地。

所以需要有人时时刻刻注意着网络的动向。

所以我们必须注意每一个角落。”

在简单给大家介绍了这份审查员工作的意义后,员工们开始接受公司有经验的审查员的培训。

这批人的培训课程是针对一个约会软件制定的。

这个约会软件上的用户会有自己的相册文件夹,

而审查员们需要做的就是对这些照片进行筛选,删除那些不符合约会软件平台规定的照片。


为什么约会软件如今也需要这么多审核员了?

负责这个项目的部门主管向大家介绍了这种审查的必要性,

那就是保护寻找真爱的用户们,不被骗财骗色骗感情:

“审查对于约会应用来说也是很重要的,如果没有审查,网络交友市场不会像现在这样繁荣。

大多数人都是去网上寻找自己的灵魂伴侣的,一定程度上这样的用户是很脆弱的。


不仅因为他们把自己的个人信息传了上去,也因为他们可能会带着很强的感情色彩去互动。

所以在这种平台上,骗子很容易伤害和操纵这群用户。

常常有人上传从他人那里偷来的照片,盗用他人身份。

所以我们一般都会把这些可疑的照片验证一下,是不是真的上传者本人。

“我们会去查他们的脸书账号,通过脸书来核对身份。

如果查下来,照片都是真的,那就没事儿了。

但如果对不上号,我们就会继续查。

按照经验,可疑的照片中,大概有30%-40%的可疑照片的确是本人上传的。

但另外的60%-70%就都是骗子们了。”


“这些骗子坐在家里,通过盗用他人身份,找到了一个简单的生财之道。

比如,他们会不停地给接触到的用户发垃圾邮件,要钱、要机票,

说些什么‘我会来陪你的啊,我会来和你在一起的,只要你帮我买机票就好。’

这种情况下,接到这种信息的人就已经很危险了。

所以我们必须帮他们。”



公司领导们的这一番话,让新进的审查员们可以感受到:

自己的工作其实充满了意义,

自己做的很多事情,都是在保护所有无辜的网友们!

不用怀疑工作的意义,努力接受培训才是眼下最重要的。


【布拉德皮特和比基尼女性,都是违规内容】

工作内容和意义介绍结束后,新人们开始正式学习,具体到底怎么做内容审查了。

培训开始前,培训老师向大家提问:

“在最开始,我想问大家,谁能告诉我内容审查到底是什么?”

这个问题出来后,房间里一片安静,没有一个新员工能接上话。

培训主管并不觉得意外,接着他回答了自己提的问题:

“其实,简单说你们需要做的就是判断数据。

就是在我们的客户给我们的规则基础上,知道哪些内容可以被批准,哪些应该被拉黑。

但这并不是一件谁都能做的事儿。

你必须非常擅长判断事物,具有很好的理解能力。

你们不能犯任何一点错,因为任何一点错,都会带来严重的后果。”

接下来,培训主管花了好几天的时间,举了无数个例子来给新员工们讲解规则。

虽然大体上审核规则都是相通的,无非就是包含色情、暴力、变态等内容需要被删除。

但什么样的图片、视频算得上是“色情、暴力、变态”,就需要靠经验来判断了。


比如,开始第一天,培训主管给大家展示了一张照片:

照片中是一个穿着内裤的男人的下半身。

培训主管说:

“这个人并不是裸着的,

但是你能很清楚地看到他的勃起的部位,

所以这种情况下也是不可以的,这种在这个平台属于裸露。”

紧接着,他又展示了另外一张照片,是一个穿着内裤的男人的背影:

“下面这张我们不是很确定,这个人要么是在小便要么是在干什么别的。

就算我们假如,他有50%的概率可能是在小便吧,那也是不可以的。

小便的照片是不允许的,既然这张图看上去他挺像是小便的,哪怕只有50%几率,这种类型的图片都是不能容忍的。”

下面的员工们都有种恍然大悟的感觉:

原来这些内容都会被看做违规的!

果然不是靠电脑简简单单就能判定的,

这不仅需要判断能力,还需要联想能力!

然而,接下来主管讲解的“违规内容”中,比上面这两张图还让人意外的还很多。


到了周三,培训主管开始给员工们举一些更加具有冲击性的图片例子

在严肃地说了一通后,员工们都严阵以待,等着主管放出那批非常有冲击性的照片。

结果荧幕上显示出的,是一张在沙滩上穿着比基尼的女性。

她并没有全裸,看起来似乎没有什么不妥。

于是员工们都笑了。

但主管不管大家笑不笑,继续严肃地说

“这种照片,也是不被容忍的。

因为你看这张,很明显地可以看到,

摄像头的对焦的重点、照片的重点就是在这个女性的屁股上。

这张照片就是为了凸显她的臀部而拍摄的。

虽然她并没有真的裸露关键部位,但这种照片还是要被归在裸露照片的这类中。

聚焦臀部的照片不行,竖中指的、很明显的含有粗俗信息的,也是不行的。

紧接着主管又放了一张一个女性对着镜头竖中指的照片,作为违规示范:

“任何裸露、任何形式的低俗内容,都不能留着,都需要被删除。”


随后,他又放了一张在动物园里的照片,说这样的也不行。

因为照片中的动物在交配,这也是属于淫秽内容。

这次,员工们都听呆了。

但最令人意想不到,布拉德皮特的照片也是违规的。

培训主管指着一张可以称得上是证件照的布拉德皮特照片,

说这样的照片,在这个约会平台上也是不被允许的。

因为用名人照片来当自己的资料介绍是一种虚假信息,虽然不涉及色情暴力,但也必须被移除。

所以, 员工们不仅要有联想能力,理解能力,

还必须尽可能多地了解社会名人…

如此看来,这份工作的确是需要大量的经验累积才能胜任。


【每天都接受负面信息,内心真的不会崩溃吗?】

除了上面那些让人感到有一丝意外的“违规内容”外,

大多数被删除的照片,都是员工们通过自己的理解,短时间内就能看出违规的内容。

比如涉及虐童的、充满血腥暴力的、还有各种含有变态性行为的照片。

这些照片拿给AI可能不好分辨,但从人的角度似乎非常好理解是否违规。

比如,AI现在还是很难分清楚难民、战争报道中儿童的图片,和虐童、恋童癖的图片;

同时也识别不出来,一些充满“性暗示”的没有血腥、裸露的照片。

对于没有丝毫暴露的,但充满性意味的SM照片,培训主管也曾经举过例子:

“还有一些变态的照片,可能不涉及暴力、也没有任何裸露但是你能看出它很变态。

比如这张:这个人其实是在喝另外一个人的小便。

这种也是绝对不能容忍的。

我们不允许任何类似的暴力、变态图片出现在用户的相册中。”

总而言之,培训主要是让大家知道,

平时一些看起来“无伤大雅”的图片,

都有可能因为对焦的重点、蕴含的意义而违规的。

看得多了大家就能慢慢摸索出哪些照片有问题了,关键是要提高准确率和速度!


对于接受过培训的熟练审查员来说,

他们每小时可以审核2000多张照片。

而这家公司20个审查小组,一天的时间里可以处理近一百万张敏感照片。

这些都是依赖于员工们一张张地看、一张张地判断....

这样高强度的工作中,审查员难免会变得有点麻木和疲惫。

但再麻木、再疲惫,有一类内容在发现之后,

还是需要他们停下来做记录,做成报告上报的。

这类内容,就是和虐童、恋童癖有关的一切图片、视频。

对这家印度公司的所有审查员来说,他们虽然每天会接触到大量的违规照片,

大多数时候他们除了删除、阻止他们继续传播,也不能做更多的事儿;

但关于虐童信息的追究,算是他们在繁重的工作中依然需要去承担的一份社会责任。


不过,看到他们这样繁重的工作量,和由内而外的“社会责任”,

人们也难免会疑惑:

偶尔一两次报告虐童情况是一回事,

每天都接受到大量的虐童照片,就算理智上能接受,

人的情感上就不会感到压抑和窒息吗?

所以,当新员工们看到老员工们的工作状态后,内心产生对这份工作的怀疑一点也不稀奇。

而培训主管也没有回避这个问题。

对他来说,要尽量地降低这份工作带个个人生活的负面影响,最关键的就是不要太过于“感情用事”:

“有时候,你可能会觉得怎么能看到这么多让人难受的照片。

但是这就是审查的一部分,这就是我们的工作。

别在工作中,投入太多的个人情感。

你是印度人,你肯定会遇到一些让你觉得很难受,冒犯了你的信仰和三观的照片,你会感到愤怒。

但其实没必要这样。

你来这里,就是为了删除这些东西,从而不让更多的人看到。

我之所以做得好,是因为我从来没有那种‘我的天啊这是什么鬼’的感觉,

在我看来,说到底这些不过都是图片而已。

我也没有在做什么错事,这就是我的工作而已。

对我而言,这份工作从来没有给我的生活带来太大影响。”

从这个纪录片来看,

这家印度公司虽然工作量巨大,但他们并没有把审查员的内心负担看作是严重的问题。

这还只是为约会软件服务的审查员....

相对来说,约会软件上的图片,偏凶杀暴力的可能还相对少一点。 

而在Facebook上,这类违规的内容,可能更多,更突破人的底线.... 



从Facebook的审查员团队,和印度审查公司的纪录片中,

除了讨论“长期接受负面信息,是否会造成审核员心理创伤”外,

我们还可以清楚地感受到一个事实:

人们之所以不能完全依赖于人工智能完成审查工作

不仅因为存在大量过于复杂的图片、视频、文字、声音信息,

也是由于关于什么是“违规”的判断规则,最终还是由带有强烈主观意识的人来决定的。


拿印度来打个比方说,

在印度,虽然现在有很多约会软件,

但约会软件到现在仍然是一种带有社会禁忌符号的事物。

在这样的情况下,假如一个来自很保守的家庭的审查员,在约会网站上看到一张穿比基尼的照片,

他可能就会觉得这照片有点过了,不合适。

而同样的照片,如果是拿给看惯了阳光沙滩的美国加州审查员来说,可能就不值一提了。

从全球来看,每个国家都有着各自不同的文化,有着不同的社会禁忌,

在现实生活中能够约束人的法律、道德规范、社会共识,在网络空间里依然会起作用。

从这个角度,审查员们也就像是在网络世界维护秩序的人,

和现实世界的警察、执法者们极其相似:

会和负面信息接触,会让自己置身于“危险”之中,会受到创伤;

但有的地方的“警察”福利好,有组织提供的的心理治疗师,受到创伤后可以获得赔偿;

而有的地方的“警察”,光是能够争取到这份“辛苦的工作”就已经很不容易了,

没有太多的福利,有再多的压力也不能轻言放弃,只能咬牙继续,让自己更坚强、或者说是更麻木...

或许,在AI能够取代人们判断负面信息之前,

这种“网络环境安全”和“审查员心理健康”之间的矛盾,还是会一直存在吧...



ref:
https://www.theguardian.com/technology/2017/may/04/facebook-content-moderators-ptsd-psychological-dangers

https://mashable.com/article/facebook-moderator-sues-ptsd/?europe=true#FIYjOXZIZPqW

https://www.theguardian.com/technology/2018/sep/24/facebook-moderators-mental-trauma-lawsuit

https://www.youtube.com/watch?v=k9m0axUDpro


--------------------------------------


…………………………

事儿君有品,

专为大家准备英国的各种值得推荐的好产品~

英国直邮,包邮包税~




阅读9270
上班 电脑 暴力 
举报0
关注英国那些事儿微信号:hereinuk

用微信扫描二维码即可关注
声明

1、头条易读遵循行业规范,任何转载的稿件都会明确标注作者和来源;
2、本文内容来自“英国那些事儿”微信公众号,文章版权归英国那些事儿公众号所有。

评论
更多

文章来自于公众号:

英国那些事儿

微信号:hereinuk

邮箱qunxueyuan#163.com(将#换成@)
微信编辑器
免责声明
www.weixinyidu.com   免责声明
版权声明:本站收录微信公众号和微信文章内容全部来自于网络,仅供个人学习、研究或者欣赏使用。版权归原作者所有。禁止一切商业用途。其中内容并不代表本站赞同其观点和对其真实性负责,也不构成任何其他建议。如果您发现头条易读网站上有侵犯您的知识产权的内容,请与我们联系,我们会及时修改或删除。
本站声明:本站与腾讯微信、微信公众平台无任何关联,非腾讯微信官方网站。