Facebook公關災難 AI誤認黑人為靈長類


Facebook的自動提示會向用戶發出一些其他觀看段片相關的內容。不幸地,AI面部識別系統錯誤,引發公關災難。


Facebook自動提示的錯誤

最近有英國報道以黑人為主角的短片的 Facebook 用戶看到了來自社交網絡的自動提示,詢問他們是否願意「繼續觀看有關靈長類動物的短片」,Facebook公司調查並禁用了人工智能驅動的功能那推送了消息。

Facebook週五表示,在社交網絡短片中將黑人誤認為「靈長類動物」後,它被禁用了主題推薦功能。Facebook 發言人稱這是一個「明顯不可接受的錯誤,我們向任何可能受到這些冒犯性建議的人道歉」」,並表示涉及的推薦軟件已下線。

 

 

該短片的日期為 2020 年 6 月 27 日,由《每日郵報》發布,其中包含黑人與白人平民和警察發生爭執的片段。而短片與猴子或靈長類動物無關。

 

前 Facebook經理發言

前 Facebook 內容設計經理 Darci Groves 說,一位朋友最近給她發了一張提示截圖。她將其發佈到一個面向 Facebook 現任和前任員工的產品反饋論壇。該公司的短片服務 Facebook Watch 的產品經理稱其「不可接受」,並表示該公司正在「調查根本原因」。

在 Facebook 聲明中,Dani Lever 表示:「我們說,假設我們對人工智能進行了改進,但我們知道它並不完美,我們還有更多的進步。我們向任何可能的進步。到這些冒犯性建議的人道歉。”

谷歌、亞馬遜和其他科技公司的人工智能系統中的一些問題而受到審查,尤其是一些敏感的問題上的調查研究,人工智能解決了對有色人種有疑難問題,識別起來困難的問題。 ,導致黑人因計算錯誤而受到影響或時代的事件,在這個不同的種族主題主題上必須小心處理,否則引發公關災難。



Alex Law