IEEE(美國電氣和電子工程師協會)最新宣布了三項新的人工智能發(fā)展標準。根據最近發(fā)布的一份報告,他們的人工智能標準將優(yōu)先考慮人類,因為他們承諾要跟上AI領域不斷發(fā)展的腳步。
在發(fā)布的《合乎倫理的設計:將人類福祉與人工智能和自主系統優(yōu)先考慮的愿景》報告中,共分為八個部部分闡述了新的人工智能發(fā)展問題。分別是:一般原則,人工智能系統賦值;指導倫理學研究和設計的方法學;通用人工智能和超級人工智能的安全與福祉;個人數據和個人訪問控制;重新構造自動武器系統;經濟/人道主義問題;法律。
一般原則涉及高層次倫理問題,適用于所有類型的人工智能和自主系統。在確定一般原則時,主要考慮三大因素:體現人權;優(yōu)先考慮最大化對人類和自然環(huán)境的好處;削弱人工智能的風險和負面影響。
人類利益原則要求考慮如何確保AI不侵犯人權。責任原則涉及如何確保AI是可以被問責的。為了解決過錯問題,避免公眾困惑,AI系統必須在程序層面具有可責性,證明其為什么以特定方式運作。透明性原則意味著自主系統的運作必須是透明的。AI是透明的意味著人們能夠發(fā)現其如何以及為何做出特定決定。
在關于如何將人類規(guī)范和道德價值觀嵌入AI系統中,報告中表示由于AI系統在做決定、操縱其所處環(huán)境等方面越來越具有自主性,讓其采納、學習并遵守其所服務的社會和團體的規(guī)范和價值是至關重要的。可以分三步來實現將價值嵌入AI系統的目的:第一,識別特定社會或團體的規(guī)范和價值;第二,將這些規(guī)范和價值編寫進AI系統;第三,評估被寫進AI系統的規(guī)范和價值的有效性,即其是否和現實的規(guī)范和價值相一致、相兼容。
報告中還指出需要指導倫理研究和設計的方法論,通用人工智能和超級人工智能的安全與福祉,重構自主武器系統,以及經濟/人道主義問題等八個人工智能發(fā)展面臨的問題。報告中收集了超過一百位來自人工智能領域學術界,科學界,以及政府相關部門的思想領袖的意見,整合了人工智能、倫理學、哲學和政策等多個領域專業(yè)知識。它的修訂版EAD(Ethically Aligned Design) 版本將會在2017年底推出,報告增至為十三個章節(jié),含二百五十多個全球思想領袖的精華分享。
IEEE 機器人和自動化協會的主席Satoshi Tadokoro 解釋了他們?yōu)槭裁聪胍贫ㄟ@樣的標準:“機器人和自動系統將為社會帶來重大創(chuàng)新。最近,公眾越來越關注可能發(fā)生的社會問題,以及可能產生的巨大潛在利益。不幸的是,在這些討論中,可能會出現一些來自虛構和想象的錯誤信息?!?/p>
Tadokoro 繼續(xù)說道:“IEEE 將基于科學和技術的公認事實來引入知識和智慧,以幫助達成公共決策,使人類的整體利益最大化?!背薃I倫理標準外,還有其他兩個人工智能標準也被引入報告中,每個項目都由領域專家領導。
第一個標準是:“機器化系統、智能系統和自動系統的倫理推動標準”。這個標準探討了“推動”,在人工智能世界里,它指的是AI會影響人類行為的微妙行動。第二個標準是“自動和半自動系統的故障安全設計標準”。它包含了自動技術,如果它們發(fā)生故障,可能會對人類造成危害。就目前而言,最明顯的問題是自動駕駛汽車。第三個標準是“道德化的人工智能和自動系統的福祉衡量標準”。它闡述了進步的人工智能技術如何有益于人類的益處。
這些標準的實施可能比我們想象的要早,因為像 OpenAI 和 DeepMind 這樣的公司越來越快地推進人工智能的發(fā)展,甚至創(chuàng)造出能夠自我學習又擴大“智能”領域的人工智能系統。專家們認為,這樣的人工智能會破壞世界穩(wěn)定,導致大規(guī)模的失業(yè)和戰(zhàn)爭,甚至轉向創(chuàng)造“殺人武器”。最近,聯合國的重要討論促使人們開始認真思考,需對將人工智能技術當作武器使用進行更嚴格的監(jiān)管。