麻省理工學(xué)院和多倫多大學(xué)的研究人員表示,亞馬遜向執(zhí)法部門推銷的面部檢測(cè)技術(shù)經(jīng)常誤認(rèn)為女性,尤其是那些膚色較深的女性。
由于擔(dān)心歧視少數(shù)群體,隱私和民權(quán)倡導(dǎo)者呼吁亞馬遜停止?fàn)I銷其Rekognition服務(wù)。一些亞馬遜投資者也曾要求擔(dān)心它會(huì)使亞馬遜容易受到訴訟而要求該公司停止。
研究人員表示,在他們的測(cè)試中,亞馬遜的技術(shù)將黑皮膚女性稱為男性的31%。皮膚較淺的女性在7%的時(shí)間里被誤診。膚色較深的男性的錯(cuò)誤率為1%,而膚色較淺的男性則沒(méi)有。
人工智能可以模仿人類創(chuàng)造者進(jìn)入日常生活的偏見(jiàn)。近日發(fā)布的這項(xiàng)新研究警告說(shuō),面部檢測(cè)技術(shù)可能會(huì)導(dǎo)致濫用和威脅隱私和公民自由。
亞馬遜云計(jì)算部門人工智能總經(jīng)理Matt Wood 表示,該研究使用的是“面部分析”而非“面部識(shí)別”技術(shù)。Wood說(shuō),面部分析“可以在視頻或圖像中發(fā)現(xiàn)面部,并指定佩戴眼鏡等通用屬性;識(shí)別是一種不同的技術(shù),通過(guò)這種技術(shù),個(gè)人面部與視頻和圖像中的面部相匹配。”
在媒體網(wǎng)站近日帖子中,麻省理工學(xué)院媒體實(shí)驗(yàn)室研究員Joy Buolamwini回應(yīng)說(shuō),公司應(yīng)該檢查所有分析人臉的系統(tǒng)是否有偏見(jiàn)。
她寫道:“如果你銷售一種已被證明對(duì)人臉有偏見(jiàn)的系統(tǒng),那么你的其他基于面部的產(chǎn)品也完全沒(méi)有偏見(jiàn)是值得懷疑的?!?/p>
美國(guó)公民自由聯(lián)盟(American Civil Liberties Union)的律師雅各布?斯諾(Jacob Snow)表示,亞馬遜的反應(yīng)表明,它并沒(méi)有認(rèn)真對(duì)待“這項(xiàng)研究所揭示的真正嚴(yán)重的擔(dān)憂”。
多倫多大學(xué)的Buolamwini和Inioluwa Deborah Raji表示,他們研究亞馬遜的技術(shù),因?yàn)樵摴疽褜⑵渫葡驁?zhí)法部門。Raji在LinkedIn帳戶稱,她目前是Google的人工智能研究人員,該公司與亞馬遜競(jìng)爭(zhēng)提供云計(jì)算服務(wù)。
Buolamwini和Raji表示微軟和IBM已經(jīng)改進(jìn)了他們的面部識(shí)別技術(shù),因?yàn)檠芯咳藛T在2017年5月的研究中發(fā)現(xiàn)了類似的問(wèn)題。他們的第二項(xiàng)研究,包括亞馬遜,于2018年8月完成。他們的論文將于周一在檀香山舉行的人工智能會(huì)議上發(fā)表。
伍德表示亞馬遜自研究以來(lái)已對(duì)其技術(shù)進(jìn)行了更新,并通過(guò)“零假陽(yáng)性匹配”進(jìn)行了自己的分析。
亞馬遜的網(wǎng)站認(rèn)為Rekognition幫助俄勒岡州華盛頓縣警長(zhǎng)辦公室加快了從數(shù)十萬(wàn)張照片記錄中識(shí)別嫌疑人的時(shí)間。
注:本文編譯自外網(wǎng)