近日,Facebook的CEO马克.扎克伯格宣布公司将会新增3000名内容审核员,他们负责审核平台上的内容,包括最近网上有出现的谋杀、自杀和强奸等视频。科技巨头聘用大量人力来做内容审核,已经不算什么稀奇事。
Google、百度、腾讯、新浪、今日头条都设置了类似岗位。对于做内容的平台,内容审核尤其重要,一旦没有处理好,很有可能影响到整个公司的前景。为什么在科技如此发达的今天,机器还没法完全替代传统的人工审核?各大巨头还需要人海战术来鉴黄呢?
内容平台的阿克琉斯之踵
今年4月,一位泰国男子在Facebook上直播杀害亲生女儿的画面,随后该男子自杀。视频在Facebook上挂了近24个小时,大量用户看到婴儿被杀害的过程。其中一段视频播放量超过25万次,视频还被其他用户上传到其他视频网站。
色情、暴力、犯罪,这些不良内容多次在Facebook上出现,这让Facebook陷入争议。今年3月,一名15岁美国少女被多名男子性侵犯并被直播到Facebook上,视频吸引了至少40万人关注。有人称,这样的画面让人感到害怕和不安,“看了之后晚上都睡不着觉”。
事发后,Facebook团队意识到问题的严重性。Facebook的CEO扎克伯格公开表示,Facebook将尽一切努力避免此类内容再出现,并且表示Facebook要变成一个健康而安全的网络社区,还有很多工作要做。
扩招内容审核员正是Facebook为此做出的举措。此前,Facebook在全球已有4500名员工负责内容审核,此次扩招会让审核过程更加及时和准确。这些员工主要负责处理那些没有被审查到的、或者没有被立即删除的不良内容。
平台不惜人力和财力,去做好内容审核的工作。一方面是大量的不良内容,会使得用户产生反感,会降低使用产品的频率甚至远离产品。劣币驱逐良币,不利于平台的长期发展。另外一方面,不良内容的发布,很有可能导致触犯国家法律,引来平台的管制甚至关闭,今年年初,知名的同性社区ZANK就因为直播涉黄被整体关闭。