臉書(Facebook)今天表示,臉書審查員在過去 3 個月透過先前未公開的自動標圖軟體幫助,刪除 870 萬張兒童裸照圖檔。
路透社報導,這項在過去一年中推出的機器學習工具自動辨識同時含有兒童及裸體的照片,提升臉書官方取締兒童色情內容速度。臉書今天同樣公布類似系統,揪出涉及誘拐或和未成年人交友以達性剝削目的的用戶。
臉書全球安全部門負責人戴維斯(Antigone Davis)在訪問中告訴路透社,機器幫助他們區分內容的輕重緩急,並讓公司受訓過的審查團隊更有效率地排列問題內容。臉書嘗試將這項技術應用在旗下應用程式 Instagram 上。
在政府監察單位及國會議員壓力下,臉書誓言加快移除極端分子及非法內容速度。因此,過濾每日數十億計用戶貼文的機器學習程式是計畫不可或缺的一環。
但機器學習系統並非完美無缺,新聞媒體及廣告商等用戶今年都曾抱怨臉書自動系統誤將他們的貼文刪除。臉書多年來規定,甚至禁止穿著清涼的兒童出現在「立意良善」的家庭照中,擔心這類影像可能遭他人濫用。
戴維斯表示,兒童安全系統會犯錯,但用戶可以申訴。她說:「我們在孩童安全一事上,寧願過度謹慎,也不願冒險犯錯。」
臉書先前未公布兒童裸照刪文數據,但為打擊色情活動及成人裸照,首季移除約 2100 萬則貼文及評論。
(中央社)
評論被關閉。