近日,歐盟委員會(EC)任命的人工智能高級專家小組(AI HLEG)剛剛發(fā)布了 AI 開發(fā)和使用的道德草案—可信賴 AI 的道德準(zhǔn)則草案(Draft Ethics Guidelines for Trustworthy AI),內(nèi)容長達(dá) 37 頁,提出可信賴 AI 應(yīng)具備兩大要素,以及 AI 不可為的基本原則。
歐盟 AI 道德準(zhǔn)則草案指出,可信賴的 AI 有兩個組成要素:一、應(yīng)尊重基本權(quán)利,適用法規(guī)、核心原則和價值觀,以確?!暗赖履康摹保╡thical purpose),二、兼具技術(shù)魯棒性(robust)和可靠性,因為即使有良好的意圖,缺乏技術(shù)掌握也會造成無意的傷害。另外,AI 技術(shù)必須足夠穩(wěn)健及強(qiáng)大,以對抗攻擊,以及如果 AI 出現(xiàn)問題,應(yīng)該要有“應(yīng)急計劃”(fall-back plan),例如在 AI 系統(tǒng)失敗了,必須要求交還由人類接手。
另外,可信賴 AI 的不可為,包括不應(yīng)以任何方式傷害人類;AI 不應(yīng)限制人的自由,換句話說,人們不應(yīng)該被 AI 驅(qū)動的機(jī)器征服或強(qiáng)迫; AI 應(yīng)該公平使用,不得歧視或誣蔑;AI 應(yīng)透明地運(yùn)作,也就是說,人類需要知道 AI 正在開發(fā)的目的,以及如何使用它;AI 應(yīng)該只為個人和整個社會的福祉而發(fā)展
草案也提出了框架,第一章闡述 AI 必須遵守的基本權(quán)利和價值觀,以確保 AI 符合道德目的。第二章則是實現(xiàn)可信賴 AI 的指導(dǎo)方針,同時兼顧道德目的和技術(shù)穩(wěn)健性,并列出可信賴 AI 的要求,包括技術(shù)和非技術(shù)方法。第三章則提供了具體但非窮舉的可信賴 AI評估表。