每隔一個星期的周二早上,在臉書總部的玻璃會議室里,都會有幾十個人聚在一起,討論一些事關全球20億用戶的事情。
他們通過討論,制定臉書審核機制的“指導方針”,然後下發到摩洛哥、菲律賓等國的外包公司7500名審核員手中(臉書最新數據為15000人),通過他們的手,決定全球用戶什麼能說,什麼不能說。
《紐約時報》當地時間12月27日的報道揭秘了臉書1400多頁的審核“指導方針”,其中的問題也暴露無遺。這一過程中,不管是制定者還是審核員,都對臉書用戶所在的各個國家地區及其語言,知之甚少。
比如,某條規則搞錯印度法律,甚至,侵入越來越多國家的政治。
“放任煽動性言論從而助長社會暴力”是臉書面對的最嚴重批評之一,其內容審核機制也因此格外受到關注。但這種不完美的方法所帶來的偏見,也正是很多專家所擔心的。
點擊查看大圖
臉書總部 圖源:《紐約時報》
“權力過大”,正侵入全球敏感政治事務
臉書如何監控每天超過100種語言,數以億計的帖子?
正如文章開頭描述,臉書的審核是靠幾十人制定的規則作為指導的。報道稱,他們大多是年輕的工程師和律師,試圖將高度複雜的問題提煉成簡單的規則:對或錯,是或否。
一名臉書員工向《紐約時報》提供了1400多頁的《規則手冊》。他說,他擔心公司權力過大,監管太少,已經犯了太多錯誤。
《紐約時報》檢查這些文件發現,裡面有許多漏洞和偏見。而審核人員對這些規則的嚴格遵守,使該公司成為了全球言論的有力仲裁者,這種權力遠遠超過了一所公司本應擁有的。
儘管這些指導方針非常詳細,但對於打擊“極端主義”或虛假信息來說,最多也只能算是“最佳猜測”。報道稱,它們正導致臉書侵入全球敏感的政治事務,有時顯得很笨拙。
在美國,臉書禁止了一個支持特朗普的極右翼組織“驕傲男孩”(Proud Boys)。同時,一則由特朗普的政治團隊製作的煽動性廣告也被禁止了,該廣告是關於一群中美洲移民的。
特朗普推特轉發該廣告,廣告內容後被指責與事實不符
在印度方面,臉書則犯了個有些好笑的低級錯誤。有一項關於印度的指示告訴審核員,任何貶低宗教的帖子都違反了印度法律,應該被刪除。但是法律學者指出,臉書搞錯了,印度法律只禁止在某些情況下貶低宗教,比如說話人打算煽動暴力的時候。
同時,審核員被警告稱,忽視違規行為可能會導致臉書在印度被封禁。
另外,在被指責加劇了緬甸的種族滅絕之後,幾乎所有接受《紐約時報》採訪的臉書員工都表示今年春天,臉書禁止任何正面提到緬甸極端種族佛教保護聯合會“瑪巴達”(Ma-Ba-Tha)的內容。因為自2014年以來,這個組織一直利用臉書煽動針對穆斯林的暴力活動。
但緬甸的一些活動人士感到困惑,他們說,幾個月後,支持該組織的帖子仍然很普遍。報道稱,罪魁禍首可能是臉書自己的規則手冊。緬甸的仇恨言論規則指示審核員不要刪除支持“瑪巴達”的帖子。臉書只是在回應《紐約時報》時才糾正了這個錯誤。
另外,有一次臉書員工關閉了緬甸高級軍事官員的賬戶,但臉書一開始沒有通知緬甸政府。這導致被禁官員以為他們遭到了黑客攻擊。有議員認為這次小插曲加劇了昂山素季與緬甸軍方之間的不信任。
在巴基斯坦7月大選前不久,臉書向其審核人員發了一份40頁的文件,概述了巴基斯坦的“政黨、預期趨勢和指導方針”。
審核人被要求對宗教黨派“伊斯蘭賢哲會”(Jamiat Ulema-e-Islam)進行額外的審查,卻將另一個“伊斯蘭大會黨”(Jamaat-e-Islami)描述為“溫和的”。這份指導方針還警告審核員,不要採取任何可能“對臉書聲譽造成負面影響、甚至使公司面臨法律風險”、“引發公關大火”的行動。
報道認為,臉書作為競選期間的討論中心,這樣的做法會影響討論。
臉書審核規則顯示的符號表情所可能代表的意思 圖源:紐約時報
審核員做着本應屬於法官的工作,還需求助谷歌翻譯
臉書的政策在會議室中誕生,但是執行卻是在摩洛哥或者菲律賓等地區的外包公司中,由他們的審核員進行。
臉書說,審核員有充足的時間審查帖子,沒有績效要求。但是審核員們表示,他們每天要審查大約1千條內容。每條審查時間是8-10秒,視頻的時間會更久一點。也就是說,在這不到10秒的時間裡,審核人員需要在腦子中過濾一千多頁的規則,做出判斷。
對一些人來說,薪酬與速度和準確性掛鈎,很多人只幹了幾個月。其中一人表示,在審核過程中發現規定存在缺陷時,他們沒有什麼動力去聯繫臉書。就制度本身而言,臉書主要讓僱傭這些審核員的公司進行自我管束。
報道稱,規則手冊是為英語使用者編寫的,因此這些審核人很多不會說帖子上的當地語言,他們有時候要依賴谷歌翻譯,但谷歌翻譯並不可靠。畢竟,理解當地環境對識別煽動性言論至關重要。
一位審核員說,如果沒有人能讀懂帖子的語言,就批准任何帖子,這可能助長了某些地區的暴力行為,比如緬甸。雖然臉書表示這樣的做法是違規的,但其對這些外包公司幾乎一無所知,由於還要依賴這些公司來在其他地方擴張,臉書也難以控制它們。
此外,控制煽動性言論的另一個障礙可能是臉書本身。該公司的算法傾向於推廣最具煽動性的內容,有時是臉書希望壓制的那種內容。
《紐約時報》表示,臉書試圖把那些連法律專家都可能糾結的問題簡化為一刀切的規則,比如什麼是令人討厭的想法,什麼是危險的謠言。
臉書認為這些文件只是用於培訓,但審核員說,它們被用作日常參考資料。單獨來看,每個規則可能都有意義。但從整體來看,就不一定了。
哈佛大學研究網絡極端主義的專家喬納斯·凱瑟(Jonas Kaiser)說,一家科技公司劃定這些界限“極其困難”,“它讓社交網絡做出判決,而在傳統上,這是法院的工作。”
芝加哥大學研究印尼政治的薩娜·賈佛里(Sana Jaffrey)說,禁令是一種捷徑。它要求審核員找到一個被禁的名字或標識,這要比讓他們判斷什麼政治觀點在什麼時候是危險的,要容易得多。但這意味着,在亞洲和中東的大部分地區,臉書禁止代表社會重要階層的強硬宗教團體,相當於在辯論中關閉了一方。
此外,臉書的決定往往會偏向能夠對其進行罰款或監管的政府。
報道稱,在公司總部,最根本的問題仍未得到解答:什麼樣的內容會直接導致暴力?臉書平台什麼時候會加劇社會緊張?
但如果不充分了解平台的影響,大多數政策只是對出現問題的臨時反應:員工們做了一個調整,等着看會發生什麼,然後再做一次調整——就像在飛行中途修理飛機一樣。
4月9日,扎克伯格在美國出席國會聽證會