IBM認(rèn)為用于訓(xùn)練面部識(shí)別系統(tǒng)的數(shù)據(jù)不夠多樣化。
這家科技巨頭發(fā)布了大量數(shù)據(jù),其中包含從Flickr數(shù)據(jù)集中獲取的100萬(wàn)張面孔圖像,其中包含1億張照片和視頻。
圖像標(biāo)注有與特征相關(guān)的標(biāo)簽,包括顱面測(cè)量,面部對(duì)稱,年齡和性別。
該公司的研究人員希望這些具體細(xì)節(jié)能夠幫助開(kāi)發(fā)人員培訓(xùn)他們的人工智能面部識(shí)別系統(tǒng),以更公平,更準(zhǔn)確地識(shí)別人臉。
“面部識(shí)別技術(shù)應(yīng)該是公平和準(zhǔn)確的”IBM的研究員兼首席科學(xué)家約翰史密斯通過(guò)電子郵件告訴CNBC?!盀榱耸辜夹g(shù)進(jìn)步,需要建立在各種培訓(xùn)數(shù)據(jù)之上?!?/p>
史密斯強(qiáng)調(diào)了面部識(shí)別系統(tǒng)數(shù)據(jù)集的多樣性對(duì)于反映現(xiàn)實(shí)世界多樣性和降低面部與人匹配的誤差率的重要性。
專家警告說(shuō),人工智能可能存在偏見(jiàn)。研究表明,面部識(shí)別技術(shù)在制作白人男性面部方面要比在少數(shù)人面前更加擅長(zhǎng)。
IBM本身一直是批評(píng) 其面部識(shí)別系統(tǒng)的目標(biāo)。一紙由麻省理工學(xué)院的研究人員喬伊Buolamwini去年出版,發(fā)現(xiàn)IBM沃森的視覺(jué)識(shí)別平臺(tái)有一個(gè)幾乎35%的錯(cuò)誤率,當(dāng)它來(lái)識(shí)別深色皮膚的女性,以及識(shí)別膚色較淺的男性不到1%的錯(cuò)誤率。
像Buolamwini這樣的研究引起了人們對(duì)在執(zhí)法等領(lǐng)域使用面部識(shí)別的擔(dān)憂,以及人工智能驅(qū)動(dòng)的種族貌相的可能性。英國(guó)大都會(huì)警察正在測(cè)試面部識(shí)別,而中國(guó)人工智能公司SenseTime通過(guò)使用面部識(shí)別技術(shù)協(xié)助地方當(dāng)局識(shí)別犯罪嫌疑人。
一個(gè)2016報(bào)告由該中心對(duì)隱私和技術(shù)在喬治敦大學(xué)法學(xué)院說(shuō),非裔美國(guó)人會(huì)不成比例地受到警方的人臉識(shí)別系統(tǒng),因?yàn)樗鼈兪遣怀杀壤槍?duì)逮捕。