Facebook搞種族歧視?其AI將黑人標記為靈長類動物
Facebook的人工智能在一段有關黑人的視頻上誤貼“靈長類”標簽。
據《紐約時報》報道,F(xiàn)acebook用戶稱其最近觀看了一個來自英國小報的黑人視頻,然而卻收到了一個自動提示,詢問他們是否愿意繼續(xù)觀看關于靈長類動物的視頻。該公司立即調查并禁用推送該消息的AI功能。
這段視頻拍攝于2020年6月27日,來源于《每日郵報》(The Daily Mail),內容涉及黑人男子與白人平民以及警察發(fā)生爭執(zhí)的片段,與靈長類動物沒有任何關系。
曾在Facebook擔任內容設計經理的Darci Groves說,一個朋友最近給她發(fā)了一張自動提醒的截圖。然后,她把這篇文章發(fā)布到一個Facebook員工的產品反饋論壇上。
作為回應,該公司的視頻服務Facebook Watch的一名產品經理稱這是“不可接受的”。周五,F(xiàn)acebook為其所謂的“不可接受的錯誤”道歉,并表示正在調查推薦功能,以“防類似事件再次發(fā)生”。
“正如我們所說,雖然我們對人工智能進行了改進,但我們知道它并不完美,我們還需要一直改善。我們向任何看到這些無禮推薦消息的人道歉!
這一事件只是人工智能工具顯示性別或種族偏見的最新例子。谷歌、亞馬遜和其他科技公司多年來一直因其人工智能系統(tǒng)存在偏見而受到審查,尤其是種族問題。研究表明,面部識別技術對有色人種有偏見,識別有色人種更困難,導致黑人在使用電腦的過程中受到歧視甚至因電腦錯誤被捕。
2015年,一名黑人軟件開發(fā)人員在Twitter上說,谷歌的照片服務(Google Photos)把他和一個黑人朋友的照片打上了“大猩猩”的標簽,這讓谷歌感到非常尷尬。谷歌宣稱自己“感到震驚和由衷的歉意”。一名相關的工程師表示,谷歌正在“研究更長期的解決方案”。
兩年多之后,谷歌給出的其中一項修復措施就是將大猩猩和其他靈長類動物的標簽從該服務的詞庫中刪除。這一尷尬的變通方案表明,谷歌和其他科技公司在推進圖像識別技術方面仍舊面臨著諸多困難,盡管這些公司希望能夠在自動駕駛汽車、個人助理和其他產品上使用這些技術。
這件事爆出后,Google 承認,在圖片識別標簽中,他們確實刪掉了“大猩猩”,給出的解釋是:“圖片標簽技術仍處于早期,很不幸,它離完美還差得遠。”
去年,臉書表示正在研究其使用人工智能(包括Instagram)的算法是否存在種族偏見。為什么人臉識別系統(tǒng)總是認錯黑人?技術不懂什么是種族偏見,人臉識別卻一再翻車。
2018 年,美國《紐約時報》發(fā)表過一篇文章,引用美國麻省理工學院的最新研究論文,證實在不同種族面前,人臉識別的準確率存在巨大差異。紐約時報刊文研究員創(chuàng)建了一個包含 1270 張面孔的數(shù)據集,包括以深膚色為主的 3 個非洲國家,以及淺膚色的 3 個北歐國家,并找來三款主流的人臉識別系統(tǒng)進行測試。數(shù)據集中的一部分結果顯示:白人的識別錯誤率最低,僅為 1%,膚色越暗,錯誤率越高。這其中,又以黑人女性的錯誤率最高,達到 35%。
現(xiàn)實中,深膚色人的面部特性確實比較難找,尤其在暗光環(huán)境下,光是檢測到臉就很難了,更別提捕捉面部特征,這對于算法確實是一大挑戰(zhàn)。在樣本數(shù)據不足的情況下,人臉識別算法一般的做法,是根據特定的面部特征,比如眼距、膚色等,開啟預測模式,但算法預測所依賴的面部特征,本身就不準確,勢必會導致識別失誤,比如把深色皮膚的女性識別成男性,或者把良民識別成罪犯。
其實,AI其實并不存在種族偏見,如果深膚色人臉的樣本足夠多,AI算法獲得足夠多的數(shù)據來訓練,那么深膚色人種的人臉識別問題自然就迎刃而解了,說到底還是AI在深膚色人種之間應用較少,缺乏足夠多的數(shù)據訓練,歸根結底,有偏見的一直是人。
維科杯·OFweek(第六屆)2021物聯(lián)網行業(yè)年度評選:https://www.ofweek.com/award/2021/AIoT/iot/
維科杯·OFweek(第六屆)2021人工智能行業(yè)年度評選:https://www.ofweek.com/award/2021/AIoT/ai/

請輸入評論內容...
請輸入評論/評論長度6~500個字