目前,人臉識別系統(tǒng)在執(zhí)法、邊境控制和其他社會應用領域的使用正在迅速增長。之前就有幾項學術研究表明,人臉識別算法在流行的商業(yè)體系存在種族和性別偏見。
最近,美國聯(lián)邦政府一項新的研究證實了這些早期結果。根據(jù)美國國家標準與技術研究院(NIST)的研究,世界上許多頂尖的面部識別算法都存在年齡、種族和民族偏見。研究顯示,目前市場上出售的算法識別某些特定人群的錯誤率是識別其他人群的100倍。
圖 | 邊境警察檢查護照(來源:麻省理工科技評論)
NIST表示,他們的“實驗數(shù)據(jù)”表明,年齡、性別和種族等特征會影響“大多數(shù)”算法的準確性。該小組測試了來自99個組織的189種算法,這些算法為全球大多數(shù)面部識別系統(tǒng)提供支持。
據(jù)《華盛頓郵報》報道,立法者稱該研究結果“令人震驚”,并呼吁美國政府重新考慮使用該技術來保護邊境安全的計劃。
“令人震驚”的研究結果
NIST研究了目前在美國政府應用中使用的四組面部數(shù)據(jù): 美國居民的面部照片;申請移民福利人士的申請照片;申請簽證人員的申請照片,以及穿越邊境進入美國的申請照片。
總的來說,數(shù)據(jù)庫包括了 1827 萬張圖片,涉及 849 萬人,是迄今為止最全面的評估。
這項研究測試了“一對一”識別和“一對多”搜索?!耙粚σ弧本褪前涯橙说恼掌c數(shù)據(jù)庫中同一個人的另一張照片進行匹配,它一般是用于解鎖智能手機或執(zhí)法部門檢查護照;“一對多”則是將某個人與一個更大數(shù)據(jù)庫中的單個記錄匹配,這經常被警察部門用來在調查中識別嫌疑犯。
在一對多的搜索中,非裔美國婦女最常被錯誤地識別,而亞洲人、非裔美國人、印第安人和太平洋島民在一對一的搜索中經常被錯誤識別。兒童和老年人的錯誤識別率也相對更高。在某些情況下,亞裔和非裔美國人被錯誤識別的概率是白人的 100 倍。一般來說,中年白人男性的準確率最高。
人臉識別還沒做好準備
研究結果進一步證明,世界上許多最先進的面部識別算法仍不具備在執(zhí)法和國家安全等關鍵領域使用的條件。NIST 的研究是迄今為止最全面的評估,調查結果對這些系統(tǒng)是否應該繼續(xù)如此廣泛地使用提出了疑問。
NIST 研究測試的算法是這些組織自愿提交的。但向當?shù)鼐胶吐?lián)邦調查人員銷售Reko面部識別軟件的亞馬遜并沒有提交相關算法。此前就有研究對亞馬遜面部識別系統(tǒng)的準確性提出了擔憂。
2018 年 7 月,美國公民自由聯(lián)盟(American Civil Liberties Union)測試了亞馬遜的面部識別系統(tǒng),結果系統(tǒng)將28名國會議員識別成了罪犯。人工智能研究人員呼吁亞馬遜停止銷售其“有缺陷”的系統(tǒng)。但亞馬遜聲稱,它的軟件不是 NIST 的測試可以輕易分析的(盡管擁有類似產品的科技公司提交算法是沒有問題的),其股東也抵制了要求限制Reko銷售的呼聲。
要尊重人們的安全和隱私
專家表示,這些算法中的偏差可以通過使用更多樣化的訓練數(shù)據(jù)來減少。例如,研究人員發(fā)現(xiàn),亞洲國家開發(fā)的人臉識別算法表現(xiàn)更好,在亞洲人和白人之間的錯誤率差別很小。
然而,即使解決了算法偏見,也不能解決面部識別的所有問題,因為這項技術的使用方式沒有尊重人們的安全和隱私。
Joy Buolamwini 是一名人工智能研究人員,他在去年接受采訪時表示,他一直在研究面部識別的偏見問題。“發(fā)展面部識別技術并將其武器化有什么好處?技術應用不能脫離其社會影響,”他說。
現(xiàn)在,需要政策制定者來找出監(jiān)管這些技術的最佳方式。NIST還敦促人臉識別的開發(fā)者進行更多的研究,以減少這些偏見。