facebook現時聘用了大約4,500內容過濾員(content moderator),大部份都是外判員工,fb計劃增聘多3,000人,他們入職前需要接受兩周的培訓,熟悉fb的內部政策。
有權暫停戶口
fb本身有一套電腦系統自動分析用戶上載內容是否可疑,特別是針對恐怖活動和兒童色情內容。內容過濾員則主要是負責檢視用戶的舉報,再根據fb的內容守則判斷是否需要篩走。
fb設計了一個名為Single Review Tool(SRT)的審視工具網頁,可助過濾員更快將可疑內容分類和尋找有關指引。有時,過濾員也拿不定主意,可以向上級通報,再由高層定奪。對於惡意留言,過濾員可以向留言者發訊息,要求他刪走留言,如對方一再發出仇恨言論,過濾員有權暫停其戶口。
英國《衞報》