過去一年,我們親眼見證了人工智能的爆發(fā):無人駕駛汽車上路、語音識別屢屢突破、機器翻譯更上層樓、人工智能甚至還掌握了古老復雜的圍棋……看起來似乎人工智能很快就將無所不能了。
雖然人工智能取得了如此之多的成功,但同時它也鬧出了很多笑話,其中一些事件更是冒犯了一些群體和個人。了解這些人工智能的「失敗」案例,能夠幫助我們防微杜漸,預防未來可能出現(xiàn)的更嚴重的人工智能失誤。路易斯維爾大學 Cybersecurity Lab 主任 Roman Yampolskiy 近日的一篇論文《Artificial Intelligence Safety and Cybersecurity: a Timeline of AI Failures》概述了人工智能「與這樣的系統(tǒng)被設計所表現(xiàn)的智能直接相關的」失敗的歷史。
據(jù) Yampolskiy 表示,這些類型的失敗都可歸因于這些人工智能系統(tǒng)在學習階段的錯誤或在表現(xiàn)階段的錯誤。
這里 TechRepublic 所列舉的人工智能十大失敗事件是根據(jù) Yampolskiy 的論文和多位人工智能專家的意見整理而成的。
1. 為預測未來犯罪所打造的人工智能是種族主義的
Northpointe 公司開發(fā)了一個設計用來預測被指控的罪犯再次犯罪的幾率的人工智能系統(tǒng)。這個被 Gawker 稱為「少數(shù)派報告類型」(借鑒自 Philip K. Dick 的一篇小說和衍生電影)的算法被指控帶有種族偏見,因為相比于其它種族,黑人罪犯被標注為未來可能再次犯罪的概率要大得多。而另一家媒體 ProPublica 還發(fā)現(xiàn) Northpointe 的算法「即使不管種族上的問題,也通常不能有效地預測?!?/font>
2. 一個視頻游戲中的非玩家角色創(chuàng)造出創(chuàng)造者規(guī)劃之外的武器
今年 6 月,一個加入了人工智能的視頻游戲 Elite: Dangerous 表現(xiàn)出了一些其創(chuàng)造者計劃之外的能力:該人工智能有能力創(chuàng)造出超出游戲設定之外的超級武器。據(jù)一家游戲網(wǎng)站表示:「玩家會遭遇那些裝備有能將他們的戰(zhàn)艦粉碎的可笑武器的戰(zhàn)艦?!惯@些武器后來被該游戲的開發(fā)者撤下了。
3. 機器人使一個兒童受傷
今年 7 月份,一個由 Knightscope 平臺所創(chuàng)造的一個所謂的「打擊犯罪機器人(crime fighting robot)」在硅谷的一家商場里使一個 16 月大的男童受傷。洛杉磯時報援引該公司的話稱這場意外是一個「奇怪的事故(freakish accident)」。
4. 特斯拉 Autopilot 模式下的死亡
今年五月份,在佛羅里達的一條高速公路上,Joshua Brown 駕駛著一輛開啟了 Autopilot 模式的特斯拉與一輛拖車發(fā)生了碰撞并最終隕命。這是涉及該公司的第一例死亡事件。事故發(fā)生后,特斯拉已經(jīng)發(fā)布了對其 Autopilot 軟件的重大更新,Elon Musk 聲稱該更新可以防止這樣的碰撞發(fā)生。此外今年也還出現(xiàn)了其它一些與 Autopilot 相關的死亡事故,包括發(fā)生在中國的一起,但這些其它事故并不與人工智能的失敗直接相關。
5. 微軟的聊天機器人 Tay 發(fā)布種族主義、性別歧視和攻擊同性戀言論
為了和年輕的消費者搞好關系,今年春季的時候微軟在 Twitter 上發(fā)布了一個人工智能驅(qū)動的聊天機器人 Tay。Tay 原本是為模仿一個十幾歲的美國青少年女孩而設計的,但在和用戶開放對話后不到一天的時間里,它就變成了一個「熱愛希特勒、譏諷女權(quán)主義」的噴子。微軟很快就下線了 Tay,并宣布將會對 Tay 的算法進行調(diào)整。另外提一點,近日微軟新的英語聊天機器人 Zo 又在 Kik 平臺上線了(https://earlyaccess.zo.ai/),希望這一次它會表現(xiàn)更好吧。
6. 人工智能評美有種族歧視
據(jù)大賽網(wǎng)站稱,在「首屆國際人工智能選美大賽」上,基于「能準確評估人類審美與健康標準的算法」的機器人專家組對面部進行評判。但由于未對人工智能提供多樣的訓練集,比賽的獲勝者都是白人。就像 Yampolskiy 說的,「美人在模式識別器中」。
7.Pokémon Go 使得游戲玩家集中到白人社區(qū)
7 月份,Pokémon Go 發(fā)布之后,多個用戶注意到極少的 Pokémon 位于黑人社區(qū)。據(jù) Mint 的首席數(shù)據(jù)官 Anu Tewary 說,這是因為算法的發(fā)明者沒有提供多樣的訓練集,在黑人社區(qū)上沒有花費時間。
8. 谷歌人工智能 AlphaGo,敗給了李世乭一局
在 3 月份的圍棋大賽中,谷歌的人工智能系統(tǒng) AlphaGo 4 比 1 擊敗了韓國李世乭。失敗的一局表明人工智能算法如今還不完美。
新南威爾斯大學的人工智能教授 Toby Walsh 說「看起來,李世乭發(fā)現(xiàn)了蒙特卡洛樹搜索中的一個弱點。」雖然被視為人工智能的一次失敗,但 Yampolskiy 說此次失敗「可認為在正常操作規(guī)范之內(nèi)。」
9. 中國的面部識別學習預測罪犯,有偏見
上海交通大學的兩個研究人員發(fā)表了一篇名為「Automated Inference on Criminality using Face Images」的論文。據(jù) Mirror 報道,他們「將 1856 張面部圖片(一半是罪犯)饋送進電腦并進行分析」。在此研究中,研究人員總結(jié)說「有一些可識別的結(jié)構(gòu)特征來預測犯罪,比如唇曲率(lip curvature)、眼內(nèi)角距(eye inner corner distance),以及所謂的口鼻角度(nose-mouth angle)。」領域內(nèi)的許多人質(zhì)疑這些結(jié)果和道德問題。
10. 保險公司使用 Facebook 數(shù)據(jù)觀察出現(xiàn)問題的概率,有偏見
今年,英格蘭最大的汽車保險商 Admiral Insurance 打算使用 Facebook 用戶的推文數(shù)據(jù)觀察社交網(wǎng)站與好司機之間的聯(lián)系。
雖然這不是一次直接的失敗,確是對人工智能的濫用。Walsh 說「Facebook 在數(shù)據(jù)限制上做的很好」。這一被稱為「first car quote」的項目未能落地,因為 Facebook 限制該公司獲取數(shù)據(jù),援引條款稱國營企業(yè)不能「使用來自 Facebook 的數(shù)據(jù)做關于資質(zhì)的決策,包括支持或反對一項應用,以及貸款利率應該提多少等?!?/font>
在以上案例的證明下,人工智能系統(tǒng)極其傾向于有偏見。在多樣的數(shù)據(jù)集上訓練機器學習算法,從而避免偏見變得極其重要。隨著人工智能能力的增加,確保研究的適當檢測、數(shù)據(jù)多樣性和道德標準也更為重要。