中文字幕日韩一区二区不卡,亚洲av永久无码精品天堂动漫,亚洲av无码国产精品麻豆天美,最新版天堂中文在线,中文字幕视频在线看

a&s專業(yè)的自動化&安全生態(tài)服務平臺
公眾號
安全自動化

安全自動化

安防知識網(wǎng)

安防知識網(wǎng)

手機站
手機站

手機站

大安防供需平臺
大安防供需平臺

大安防供需平臺

資訊頻道橫幅A1
首頁 > 資訊 > 正文

盤點2016年人工智能十大失敗之處

雖然人工智能取得了如此之多的成功,但同時它也鬧出了很多笑話,其中一些事件更是冒犯了一些群體和個人。
資訊頻道文章B

  過去一年,我們親眼見證了人工智能的爆發(fā):無人駕駛汽車上路、語音識別屢屢突破、機器翻譯更上層樓、人工智能甚至還掌握了古老復雜的圍棋……看起來似乎人工智能很快就將無所不能了。

  雖然人工智能取得了如此之多的成功,但同時它也鬧出了很多笑話,其中一些事件更是冒犯了一些群體和個人。了解這些人工智能的「失敗」案例,能夠幫助我們防微杜漸,預防未來可能出現(xiàn)的更嚴重的人工智能失誤。路易斯維爾大學 Cybersecurity Lab 主任 Roman Yampolskiy 近日的一篇論文《Artificial Intelligence Safety and Cybersecurity: a Timeline of AI Failures》概述了人工智能「與這樣的系統(tǒng)被設計所表現(xiàn)的智能直接相關的」失敗的歷史。

  據(jù) Yampolskiy 表示,這些類型的失敗都可歸因于這些人工智能系統(tǒng)在學習階段的錯誤或在表現(xiàn)階段的錯誤。

  這里 TechRepublic 所列舉的人工智能十大失敗事件是根據(jù) Yampolskiy 的論文和多位人工智能專家的意見整理而成的。

  1. 為預測未來犯罪所打造的人工智能是種族主義的

  Northpointe 公司開發(fā)了一個設計用來預測被指控的罪犯再次犯罪的幾率的人工智能系統(tǒng)。這個被 Gawker 稱為「少數(shù)派報告類型」(借鑒自 Philip K. Dick 的一篇小說和衍生電影)的算法被指控帶有種族偏見,因為相比于其它種族,黑人罪犯被標注為未來可能再次犯罪的概率要大得多。而另一家媒體 ProPublica 還發(fā)現(xiàn) Northpointe 的算法「即使不管種族上的問題,也通常不能有效地預測?!?/font>

  2. 一個視頻游戲中的非玩家角色創(chuàng)造出創(chuàng)造者規(guī)劃之外的武器

  今年 6 月,一個加入了人工智能的視頻游戲 Elite: Dangerous 表現(xiàn)出了一些其創(chuàng)造者計劃之外的能力:該人工智能有能力創(chuàng)造出超出游戲設定之外的超級武器。據(jù)一家游戲網(wǎng)站表示:「玩家會遭遇那些裝備有能將他們的戰(zhàn)艦粉碎的可笑武器的戰(zhàn)艦?!惯@些武器后來被該游戲的開發(fā)者撤下了。

  3. 機器人使一個兒童受傷

  今年 7 月份,一個由 Knightscope 平臺所創(chuàng)造的一個所謂的「打擊犯罪機器人(crime fighting robot)」在硅谷的一家商場里使一個 16 月大的男童受傷。洛杉磯時報援引該公司的話稱這場意外是一個「奇怪的事故(freakish accident)」。

  4. 特斯拉 Autopilot 模式下的死亡

  今年五月份,在佛羅里達的一條高速公路上,Joshua Brown 駕駛著一輛開啟了 Autopilot 模式的特斯拉與一輛拖車發(fā)生了碰撞并最終隕命。這是涉及該公司的第一例死亡事件。事故發(fā)生后,特斯拉已經(jīng)發(fā)布了對其 Autopilot 軟件的重大更新,Elon Musk 聲稱該更新可以防止這樣的碰撞發(fā)生。此外今年也還出現(xiàn)了其它一些與 Autopilot 相關的死亡事故,包括發(fā)生在中國的一起,但這些其它事故并不與人工智能的失敗直接相關。

  5. 微軟的聊天機器人 Tay 發(fā)布種族主義、性別歧視和攻擊同性戀言論

  為了和年輕的消費者搞好關系,今年春季的時候微軟在 Twitter 上發(fā)布了一個人工智能驅(qū)動的聊天機器人 Tay。Tay 原本是為模仿一個十幾歲的美國青少年女孩而設計的,但在和用戶開放對話后不到一天的時間里,它就變成了一個「熱愛希特勒、譏諷女權(quán)主義」的噴子。微軟很快就下線了 Tay,并宣布將會對 Tay 的算法進行調(diào)整。另外提一點,近日微軟新的英語聊天機器人 Zo 又在 Kik 平臺上線了(https://earlyaccess.zo.ai/),希望這一次它會表現(xiàn)更好吧。

  6. 人工智能評美有種族歧視

  據(jù)大賽網(wǎng)站稱,在「首屆國際人工智能選美大賽」上,基于「能準確評估人類審美與健康標準的算法」的機器人專家組對面部進行評判。但由于未對人工智能提供多樣的訓練集,比賽的獲勝者都是白人。就像 Yampolskiy 說的,「美人在模式識別器中」。

  7.Pokémon Go 使得游戲玩家集中到白人社區(qū)

  7 月份,Pokémon Go 發(fā)布之后,多個用戶注意到極少的 Pokémon 位于黑人社區(qū)。據(jù) Mint 的首席數(shù)據(jù)官 Anu Tewary 說,這是因為算法的發(fā)明者沒有提供多樣的訓練集,在黑人社區(qū)上沒有花費時間。

  8. 谷歌人工智能 AlphaGo,敗給了李世乭一局

  在 3 月份的圍棋大賽中,谷歌的人工智能系統(tǒng) AlphaGo 4 比 1 擊敗了韓國李世乭。失敗的一局表明人工智能算法如今還不完美。

  新南威爾斯大學的人工智能教授 Toby Walsh 說「看起來,李世乭發(fā)現(xiàn)了蒙特卡洛樹搜索中的一個弱點。」雖然被視為人工智能的一次失敗,但 Yampolskiy 說此次失敗「可認為在正常操作規(guī)范之內(nèi)。」

  9. 中國的面部識別學習預測罪犯,有偏見

  上海交通大學的兩個研究人員發(fā)表了一篇名為「Automated Inference on Criminality using Face Images」的論文。據(jù) Mirror 報道,他們「將 1856 張面部圖片(一半是罪犯)饋送進電腦并進行分析」。在此研究中,研究人員總結(jié)說「有一些可識別的結(jié)構(gòu)特征來預測犯罪,比如唇曲率(lip curvature)、眼內(nèi)角距(eye inner corner distance),以及所謂的口鼻角度(nose-mouth angle)。」領域內(nèi)的許多人質(zhì)疑這些結(jié)果和道德問題。

  10. 保險公司使用 Facebook 數(shù)據(jù)觀察出現(xiàn)問題的概率,有偏見

  今年,英格蘭最大的汽車保險商 Admiral Insurance 打算使用 Facebook 用戶的推文數(shù)據(jù)觀察社交網(wǎng)站與好司機之間的聯(lián)系。

  雖然這不是一次直接的失敗,確是對人工智能的濫用。Walsh 說「Facebook 在數(shù)據(jù)限制上做的很好」。這一被稱為「first car quote」的項目未能落地,因為 Facebook 限制該公司獲取數(shù)據(jù),援引條款稱國營企業(yè)不能「使用來自 Facebook 的數(shù)據(jù)做關于資質(zhì)的決策,包括支持或反對一項應用,以及貸款利率應該提多少等?!?/font>

  在以上案例的證明下,人工智能系統(tǒng)極其傾向于有偏見。在多樣的數(shù)據(jù)集上訓練機器學習算法,從而避免偏見變得極其重要。隨著人工智能能力的增加,確保研究的適當檢測、數(shù)據(jù)多樣性和道德標準也更為重要。

參與評論
回復:
0/300
文明上網(wǎng)理性發(fā)言,評論區(qū)僅供其表達個人看法,并不表明a&s觀點。
0
關于我們

a&s傳媒是全球知名展覽公司法蘭克福展覽集團旗下的專業(yè)媒體平臺,自1994年品牌成立以來,一直專注于安全&自動化產(chǎn)業(yè)前沿產(chǎn)品、技術(shù)及市場趨勢的專業(yè)媒體傳播和品牌服務。從安全管理到產(chǎn)業(yè)數(shù)字化,a&s傳媒擁有首屈一指的國際行業(yè)展覽會資源以及豐富的媒體經(jīng)驗,提供媒體、活動、展會等整合營銷服務。

免責聲明:本站所使用的字體和圖片文字等素材部分來源于互聯(lián)網(wǎng)共享平臺。如使用任何字體和圖片文字有冒犯其版權(quán)所有方的,皆為無意。如您是字體廠商、圖片文字廠商等版權(quán)方,且不允許本站使用您的字體和圖片文字等素材,請聯(lián)系我們,本站核實后將立即刪除!任何版權(quán)方從未通知聯(lián)系本站管理者停止使用,并索要賠償或上訴法院的,均視為新型網(wǎng)絡碰瓷及敲詐勒索,將不予任何的法律和經(jīng)濟賠償!敬請諒解!
? 2024 - 2030 Messe Frankfurt (Shenzhen) Co., Ltd, All rights reserved.
法蘭克福展覽(深圳)有限公司版權(quán)所有 粵ICP備12072668號 粵公網(wǎng)安備 44030402000264號