在一些人眼里,人工智能對人類構(gòu)成的威脅甚至超過核武器。日前,包括物理學(xué)巨匠斯蒂芬-霍金和PayPal創(chuàng)始人伊隆-馬斯克在內(nèi)的一群科學(xué)家和企業(yè)家簽發(fā)了一封公開信,承諾確保人工智能研究造福人類。馬斯克也投資了一家人工智能公司,目的不是賺錢,而是為了監(jiān)測人工智能發(fā)展。
特斯拉汽車公司和SpaceX公司掌門人馬斯克。馬斯克曾將研制自治可思考機器的做法描述為“召喚惡魔”。
這封由未來生活研究所草擬的公開信警告稱,如果智能機器缺乏監(jiān)管,人類將迎來一個黑暗的未來。信中指出科學(xué)家需要采取措施,避免人工智能研究出現(xiàn)可能導(dǎo)致人類毀滅的風(fēng)險。
據(jù)國外媒體報道,在一些人眼里,人工智能對人類構(gòu)成的威脅甚至超過核武器。日前,包括物理學(xué)巨匠斯蒂芬-霍金和PayPal創(chuàng)始人伊隆-馬斯克在內(nèi)的一群科學(xué)家和企業(yè)家簽發(fā)了一封公開信,承諾確保人工智能研究造福人類。這封由未來生活研究所草擬的公開信警告稱,如果智能機器缺乏監(jiān)管,人類將迎來一個黑暗的未來。
未來生活研究所的公開信指出科學(xué)家需要采取措施,避免人工智能研究出現(xiàn)可能導(dǎo)致人類毀滅的風(fēng)險。公開信作者表示人們普遍認(rèn)為人工智能研究正快速取得進步,將對整個社會產(chǎn)生越來越大的影響。信中稱語言識別、圖像分析、無人駕駛汽車、翻譯和機器人運動都成為人工智能研究的受益者。
作者們表示:“潛在的效益是巨大的。文明的每一個產(chǎn)物都是人類智慧的結(jié)晶。我們無法預(yù)測在人工智能技術(shù)大幅提高機器智商時我們的文明將達(dá)到怎樣的程度,但根除疾病和貧困是一個難以預(yù)測的過程。”他們同時也警告稱在進行人工智能研究的同時必須相應(yīng)地采取防范措施,避免人工智能給人類社會造成潛在傷害。在短期內(nèi),人工智能技術(shù)將讓數(shù)百萬人失業(yè)。在長期內(nèi),人工智能可能潛在地讓社會走向反烏托邦,機器的智商遠(yuǎn)遠(yuǎn)超過人類,做出違背編程的舉動。
公開信說:“我們研發(fā)的人工智能系統(tǒng)必須做我們希望它們做的事情。很多經(jīng)濟學(xué)家和計算機學(xué)家認(rèn)為非常有必要進行研究,確定如何在讓人工智能所能帶來的經(jīng)濟效益實現(xiàn)最大化的同時減少負(fù)面影響,例如加劇不公平和失業(yè)。”除了霍金和馬斯克外,在公開信上簽名的人還包括機器智能研究所的執(zhí)行理事盧克-穆豪瑟爾,麻省理工學(xué)院物理學(xué)教授和諾貝爾獎得主弗朗克-韋爾切克。
在這封公開信發(fā)表前幾周,霍金教授曾警告稱人工智能將在未來的某一天取代人類。他在倫敦接受英國廣播公司采訪時表示:“人工智能技術(shù)的研發(fā)將敲響人類滅絕的警鐘。這項技術(shù)能夠按照自己的意愿行事并且以越來越快的速度自行進行重新設(shè)計。人類受限于緩慢的生物學(xué)進化速度,無法與之競爭和對抗,最終將被人工智能取代。”
霍金曾在2014年初指出成功研發(fā)人工智能將成為人類歷史上犯的最大錯誤。不幸的是,這也可能是最后一個錯誤。2014年11月,特斯拉汽車公司和SpaceX公司掌門人馬斯克警告稱由于機器采用人工智能,“一些極為危險的事情即將發(fā)生”,最快將在5年內(nèi)。此前,他還曾將研制自治可思考機器的做法描述為“召喚惡魔”。
10月,馬斯克在麻省理工學(xué)院AeroAstro百年學(xué)術(shù)研討會上發(fā)表講話將人工智能稱之為“我們面臨的最大威脅”。他說:“我認(rèn)為我們必須對人工智能抱著非常謹(jǐn)慎的態(tài)度。在我看來,人工智能可能是我們面臨的最大威脅。因此,我們必須非常謹(jǐn)慎地進行人工智能研究。我越發(fā)堅信我們需要對人工智能的研究進行適當(dāng)監(jiān)管,可能是在國家層面和國際層面,確保我們不會做出一些非常愚蠢的事情。隨著人工智能的發(fā)展,我們將召喚出惡魔。也許你會認(rèn)為我們可以用類似五芒星和圣水的東西控制惡魔,但事實根本不是這樣。”