騰訊剛發(fā)布不久的《可解釋AI發(fā)展報(bào)告 2022——打開算法黑箱的理念與實(shí)踐》,正應(yīng)驗(yàn)了大廠治理 AI 的迫切性。
報(bào)告鏈接:https://docs.qq.com/pdf/DSmVSRHhBeFd0b3Zu
報(bào)告總共分為五部分,主要內(nèi)容分別為可解釋 AI 的概述、發(fā)展趨勢、行業(yè)實(shí)踐、對未來發(fā)展的看法以及最后總結(jié)。
可解釋 AI 的概述部分,主要概述了機(jī)器學(xué)習(xí)模型所面臨的可解釋性挑戰(zhàn),可解釋 AI 的意義,可解釋 AI 與透明度、問責(zé)制,以及可解釋 AI 局部和全局可解釋的兩個維度。
可解釋 AI 發(fā)展趨勢部分,主要解釋了AI的透明性和可解釋性逐漸成為立法和監(jiān)管關(guān)注的焦點(diǎn),對政府公共部門使用的 AI 系統(tǒng)提出較高的透明度與可解釋性要求,對商業(yè)領(lǐng)域的AI系統(tǒng)在可解釋性方面避免作“一刀切”要求,行業(yè)積極探索可解釋AI的技術(shù)解決方案。
在可解釋 AI 的行業(yè)實(shí)踐部分,主要介紹了谷歌模型卡片(Model Cards)機(jī)制,IBM 的 AI 事實(shí)清單(AI Fact Sheets)機(jī)制,微軟的數(shù)據(jù)集數(shù)據(jù)清單(datasheets for datasets)機(jī)制,其他可解釋性AI工具以及可解釋AI的騰訊實(shí)踐。
在第四部分,主要講述了對可解釋AI未來發(fā)展的幾點(diǎn)看法,包括立法和監(jiān)督宜遵循基于風(fēng)險(xiǎn)的分級分類分場景治理思路;探索建立合理適度的、適應(yīng)不同行業(yè)與應(yīng)用場景的AI可解釋性標(biāo)準(zhǔn);探索可解釋的替代性機(jī)制,形成對AI算法的有效約束;引導(dǎo)、支持行業(yè)加強(qiáng)可解釋AI研究與落地,確??萍枷蛏?;增強(qiáng)社會公眾的算法素養(yǎng),探索人機(jī)協(xié)同的智能范式。
作為業(yè)內(nèi)首份AI報(bào)告,獲得學(xué)界和業(yè)界專家普遍一致好評。
在數(shù)據(jù)隱私保護(hù)一塊頗有耕耘的微眾銀行首席人工智能官楊強(qiáng)評價(jià):
「可解釋 AI 是一個龐雜的領(lǐng)域,這份報(bào)告起了一個非常好的頭,在這個基礎(chǔ)上需要開展長期的研究?,F(xiàn)在的各種算法還無法在效率和可解釋性兩方面都達(dá)到很高的要求,需要根據(jù)不同需要進(jìn)行取舍。而且 AI 的可解釋性是一個長期的問題,不會很快有一個通用的可解釋框架,可以在一些比較重要的領(lǐng)域先行探索解決方法,指明未來的發(fā)展方向?!?/p>
楊強(qiáng)教授十分關(guān)注數(shù)據(jù)隱私保護(hù)的內(nèi)容,近年來在國內(nèi)大力推舉強(qiáng)調(diào)具有「數(shù)據(jù)可用不可見」特征的聯(lián)邦學(xué)習(xí)技術(shù)的研究與應(yīng)用,促進(jìn)聯(lián)邦學(xué)習(xí)框架的開源與研究。去年3月,由微眾銀行發(fā)起制定的國內(nèi)首個聯(lián)邦學(xué)習(xí)標(biāo)準(zhǔn)正式通過 IEEE 認(rèn)證,構(gòu)成了國內(nèi)研究者對數(shù)據(jù)保護(hù)所做的諸多努力中的一環(huán)。
除了楊強(qiáng),時(shí)任南方科技大學(xué)計(jì)算機(jī)科學(xué)與工程系系主任、歷史上首位獲得神經(jīng)網(wǎng)絡(luò)最高獎「IEEE Frank Rosenblatt Award」的華人學(xué)者姚新教授也對該報(bào)告進(jìn)行了附議。他談道:
「對 AI 系統(tǒng)落地來說,透明性和可解釋性是必不可少的,研究前景非常好;但 AI 的透明性、可解釋性和性能之間存在固有的矛盾,一個可能的方向是根據(jù)不同的場景、可解釋的目的,尋找不同的折中方案,以此促進(jìn) AI 技術(shù)的落地。」
什么是「可信AI」?在去年的一次對話中,姚新教授也曾向 AI 科技評論分享過自己的看法。其中,他提出,檢驗(yàn)人工智能是否可信、可落地的一個最直接的方法,就是「研究人員敢不敢用」。比如 AI 制藥,如果負(fù)責(zé)項(xiàng)目的科研人員敢用,那用戶對 AI 的信任度也會提高。但事實(shí)是如今的許多 AI 產(chǎn)品由于未充分完善,科研人員也是不敢用的。
由此可見,盡管各大廠開始重視 AI 的治理與落地安全性,但要從技術(shù)層面解決當(dāng)前人工智能模型可解釋性差、不夠穩(wěn)定的缺點(diǎn),還是需要做好打長久戰(zhàn)役的準(zhǔn)備。
正如這份報(bào)告所指出:
即使AI系統(tǒng)并非完全可解釋,我們也可以利用AI系統(tǒng)來提高決策的透明度。對人類決策的解釋,也許不能準(zhǔn)確反映出影響人類決策的因素或無意識偏見。實(shí)際上,即使 AI 系統(tǒng)所做出的決策并不能被完全解釋,但相比理解人類如何做出類似決策,我們也可以更好地理解AI系統(tǒng)在整體上是如何做出決策的。而且,AI的最大價(jià)值在于可以在復(fù)雜情形中發(fā)現(xiàn)、識別超出人類理解的模式( pattern ),因此根據(jù)定義,這樣的AI系統(tǒng)不會以人類可以理解的方式具有完全的可解釋性。就像取得駕照,相信汽車可以安全駕駛,并不需要人人都成為專業(yè)的汽車工程師一樣,當(dāng)使用AI系統(tǒng)時(shí),解釋并不總是必須的。長遠(yuǎn)來看,政府、社會、企業(yè)、行業(yè)、科研機(jī)構(gòu)、用戶等主體需要共同探索科學(xué)合理的可解釋AI落地方案及相關(guān)的保障與防護(hù)機(jī)制,推動科技問雪。
只有各界共同正確審視人工智能研究出現(xiàn)的問題,并做出合理的解決方案,才能推動AI技術(shù)持久穩(wěn)定的發(fā)展,可解釋AI未來發(fā)展如何,讓我們拭目以待!