这个互联网上最「脏」的工作,为什么无法消失?

2019-08-21 09:27 稿源:爱范儿  0条评论

程序员 黑客 代码 漏洞

在柏林不起眼的办公室里,600 名员工如冰冷的机器一般,目不转睛地盯着屏幕,拿着一个鼠标频频点击,却做着影响全球 20 亿人的事情:

网上每天超过一百种语言的数十亿帖子,哪些可以放出?哪些需要保留?哪些需要立刻删掉?

他们是 Facebook 的内容审核员们,几乎每 10 秒就要做出一个决定。

这个群体,大部分其实并不了解。他们不在深不可测的暗网,也并非和网民近在咫尺,但近月加州大学教授 Sarah T. Roberts 出了一本新书《屏幕背后》讲到:

社交媒体上最阴暗的一面,不在广大网民的的屏幕里,而在内容审核员眼前。

▲ 图片来自:《网络清道夫》截图

1 天审 25000 条内容背后

你好,你发表的 ***,因为含有违反相关法律法规或管理规定的内容,已被移除。

当你发在微博、B 站、豆瓣上的内容无法通过审查或突然被删除时,就是内容审核员在工作了。

国内外各大互联网公司每年都在扩招该岗位,单 Facebook 在全球就已经有 20,000 多名审核员,这似乎是一个永远都在缺失中的职业。

脸书,Facebook (2)

在早期,互联网还是一片分散的网络,连接数十亿个网站和社区的人们,随着互联网越来越「公司化」,Facebook,YouTube,Instagram……内容审核员开始出现,用来监管它们各自的网站。

所以简单来说,内容审核员就是将网上涉嫌违规的内容删掉的人。不过它带给人们的第一印象,一般都是「鉴黄师」。

「鉴黄」没错,但只是工作内容的一部分,尽管很多人还认为这是一种额外福利,但它并没人们想象的那么简单。

在一部 《网络清道夫》的纪录片中,Facebook 的内容审核员一天的处理指标是 25000 个。而这些内容中遍地都是儿童色情、恐怖主义、自残虐杀、极端组织言论……. 他们的职责,是把最肮脏和恶心的信息阻隔在我们可以看到的世界之外。

刺激、压抑、愤怒、冷漠、道德谴责…… 各种情绪混杂,不断刷新感官、挑战忍耐极限。但这不是过山车,翻腾后就能回到地面,每个新上岗的人一直得在车上,只能从原始的刺激慢慢变成习惯后的麻木。

要做这个工作,你必须成为一个坚强的人,并且非常了解自己。

而据国内某互联网企业的员工叙述,他们的日常工作,除了会出现一些极端的情况,大部分时间可以说是反复甚至有些枯燥的:

单一的工作环境。

盯着屏幕一整天,白天黑夜紊乱。

从成千上万的自拍照、度假照、恶俗视频里,重点搜索涉黄和涉政,还有一小部分赌博、高利贷、卖枪卖药的帖子。

删除,再看,再删除,再看。

另外,他们的平均薪水仅高于最低工资。内容审核规则十分模糊,且经常变化,大部分靠既定模型和长期经验中把握尺度,但有时候看上头命令,有时候看上司命令。每个月都有人来,有人走,公司从来不留人。

只是一群普通人突然接触到了禁忌世界,因为频繁血腥而残酷的内容,导致压力也越来越大,累计到一定阈值就开始溃堤。

2017 年一桩 Facebook 的集体诉讼案中,数千名内容审核员表示在工作中受到了严重的心理伤害,导致发生创伤后应激障碍,「睡眠中一点响动都会让我有遭遇车祸的错觉」。

但这又是一份不可或缺,至关重要的工作:网络清道夫,就是互联网的安全卫士,如果他们不清理违禁内容,不阻挡那些非法信息,就会有更多青少年和小孩看到。

Google、Facebook 这些大公司非常重视它们,现在已经几乎让数十万人任职,虽然它们也为审核员提供了心理健康咨询和检查,但也依然承认,内容审核员是科技界最具心理创伤的工作之一。

那这份「悲伤职业」,有没有可能用更好的方式去解决,甚至,人类可以不再做这类工作?

无法消失的内容审核员

事实上,目前的内容审核只能是人来进行的——猫捉老鼠的游戏。

但好的一面是,现在还有 AI 能帮他们预先灭掉「一窝蛇鼠」。

随着互联网公司审核员投诉和抗议事件屡发,再加上互联网用户上传内容量增加,头部平台每天产生的 UGC 内容量更是天文数字,人力投入昂贵且难以扩展,所以现在几乎所有公司,都已经在用「人+机器」的内容审核方式。

▲ 雅虎开源过一套深度学习神经网络,能给图片评估一个 NSFW(Not Suitable/Safe For Work)值,最无害的是 0,最极端是 1

国内最早利用 AI 技术从事内容审核服务的图普科技,据说现在对于色情、暴恐、低俗、诈骗等内容已经能达到 99% 的识别率,降低 90% 以上的人工审核成本。

在人机结合的审核里,首先 AI 会进行第一阶段海量内容的审核,区分正常内容、确定的不良内容以及不明确的内容,然后帖子被分类分配出来,再由审核员对「不明确的内容」进行人工复审。

这样一来,AI 能够帮内容审核员减轻负担,让他们更高效地去做决策,专注于数据分析。

但要让人工智能取代人力,现在依然像是天方夜谭。

虽然 AI 技术发展越来越快,但是因为自然语言处理(NLP)的难度,机器在理解语言上,还不能达到人类的思维程度,所以审核文字也会失误,更何况是图片、音频、视频。

深度学习的局限性在于,如果要创建准确检测成人内容的神经网络,则必须先让 AI 在数百万个带注释的成人内容来训练。没有高质量的培训数据,AI 就很容易犯下错误。

声明:本文转载自第三方媒体,如需转载,请联系版权方授权转载。协助申请

相关文章

相关热点

查看更多