AI臉部辨識涉「歧視」黑人

By on February 13, 2018

原文刊於信報財經新聞專欄「StartupBeat創科鬥室

有研究報告指出,AI識別白人男性臉部時,準確度高達99%。(路透資料圖片)

有研究報告指出,AI識別白人男性臉部時,準確度高達99%。(路透資料圖片)

部分人對膚色及性別有偏見,原來人工智能(AI)亦可能存在偏差情況。美國麻省理工學院媒體實驗室(M.I.T. Media Lab)近日發表一份研究報告指出,AI識別對白人男性臉部的準確度可達99%;但皮膚愈偏黑,失誤就愈多﹔其中,黑人女性的準確度,最低更只有近65%。

有關研究收集了1270個不同臉部數據樣本,分別來自3個以黑人為主的非洲國家,以及3個以淺膚色人士為主的北歐國家。負責測試的研究人員根據皮膚科醫生使用的6點標籤系統(Six-point Labeling System)為臉部膚色作分類。研究測試了Microsoft、IBM及中國曠視科技等公司幾款支援性別分析功能的臉部識別技術。

結果顯示,Microsoft的技術在識別黑人女性時,錯誤率為21%;IBM及曠視科技則接近35%。惟測試白色男性臉部時,全部錯誤率均低於1%。

報告發表後,IBM回應稱,他們將於本月改良服務,以「致力達到透明及無偏見」,深色皮膚女性的識別準確度料可提高近10倍。微軟表示,他們正改善其識別能力,亦已投資「識別、了解及去除偏見」的相關技術。至於中國曠視科技,暫未對研究結果作出回應。

肇因數據庫樣本偏頗

據《紐約時報》報道,現時常用的人臉識別數據庫中,有逾75%的樣本為男性,白人比例更超過八成。訓練人工智能需要大量數據,從而提高辨識的準確度,若資料存在偏頗,效果將大打折扣。例如在2015年,Google的圖像識別系統就把非洲裔美國人錯誤標記為「大猩猩」(Gorilla),該公司已為事件道歉。

[ English Version ]

Facial recognition systems biased toward white men: study

支持 StartupBeat

如欲投稿、報料,發佈新聞稿或採訪通知,按這裡聯絡我們