來自路透社的新聞顯示,根據(jù)美國政府周四發(fā)布的一項研究顯示:與白色人種相比,許多面部識別系統(tǒng)更容易識別有色人種,這可能將限制執(zhí)法機構(gòu)對面部識別技術(shù)的使用。
這項由美國國家標(biāo)準(zhǔn)與技術(shù)研究所(NIST)進行的研究發(fā)現(xiàn),在進行一種被稱為“一對一”匹配的特定類型的數(shù)據(jù)庫搜索時,不少面部識別系統(tǒng)錯誤地識別了非裔美國人和亞洲人的面孔,相較于白人,亞裔和非裔的人臉識別錯誤率要高10到100倍。
該研究還發(fā)現(xiàn),在所有種族中,美洲原著民的假陽率最高;一對多匹配,非洲裔美國女性的假陽性率更高。非裔美國女性更容易在“一對多”配對中被錯誤識別,這種配對可用于在刑事調(diào)查中識別感興趣的人。
雖然有些公司淡化了早期的技術(shù)偏見,即可以猜測一個人的性別的技術(shù)偏見,也就是所謂的“面部分析”,但NIST的研究也發(fā)現(xiàn)了一個問題,證明了面部匹配很難跨越種族障礙。
算法正義聯(lián)盟的創(chuàng)始人喬伊·布拉姆維尼(Joy Buolamwini)稱,該報告是對人工智能(AI)偏見不再是問題的全面反駁。 這項研究是在美國對面部識別技術(shù)越來越不滿的時候進行的,批評者警告說,這可能導(dǎo)致可能導(dǎo)致不公正的騷擾或逮捕。
在這份報告中,NIST對來自99個開發(fā)人員的189種算法進行了測試,不包括亞馬遜等沒有提交算法供審查的公司。它所測試的內(nèi)容與這些公司所銷售的內(nèi)容有所不同,因為NIST研究了與云分離的算法和專有培訓(xùn)數(shù)據(jù)。
該報告還表示,不同國家開發(fā)的算法表現(xiàn)不同。美國開發(fā)的算法中,亞裔、非裔和土著的錯誤率很高;亞洲開發(fā)的算法中,白人和亞洲人的錯誤率差距較小。不過,在NIST的一次測試中,中國某家市場估值較高的人工智能初創(chuàng)企業(yè),有比較的誤匹配率都很高,其算法在查看索馬里男性的照片時,產(chǎn)生假陽性的幾率超過10%。如果部署在機場,這將意味著一個索馬里人可以通過海關(guān)檢查,每10次他使用其他索馬里人的護照。但來自中國的另一家AI初創(chuàng)公司依圖的面部識別更為準(zhǔn)確,基本不存在種族偏見。
在“一對多”測試中,在某些情況下,微軟對有色女性的誤報率幾乎是有色男性的10倍。在僅使用黑白男性照片的一對多測試中,其算法幾乎沒有差異。微軟表示正在審查報告,且沒有發(fā)表任何評論。
此外,該研究還發(fā)現(xiàn),老年人和兒童更容易被識別錯,女性比男性容易被識別錯。中年白人準(zhǔn)確率最高。
美國眾議院國土安全委員會主席,本尼·湯普森表示,在海關(guān)官員在旅行檢查站增加面部識別的時候,偏見的發(fā)現(xiàn)卻比人們所擔(dān)心的還要糟糕。
在不少美國人看來,面部識別技術(shù)出錯率以及方式過于頻繁,一開始就存在偏差,總體而言是不可靠的。此外,盡管面部識別技術(shù)正在不斷進步,其識別準(zhǔn)確度也在不斷提高,但隱私問題和道德問題,已逐漸成為面部識別技術(shù)急需解決的問題。
在美國,不少政府已經(jīng)禁止了面部識別技術(shù)的使用,而基于這些令人震驚的結(jié)果,聯(lián)邦政府政府必須重新評估其面部識別技術(shù)計劃?!?/p>
(本文編譯自外網(wǎng),內(nèi)容尚有增減)